quinta-feira, 15 de novembro de 2012
O defenition completa do 3D
Computação gráfica 3D, como visto na FaceYourArt.com
A renderização 3D com raytracing e oclusão de ambiente usando o Blender e Yafray
Computação gráfica 3D são obras de arte gráfica criadas com a ajuda de computadores digitais e software 3D. O termo também pode se referir ao processo de criação de tais gráficos, ou o campo de estudo de técnicas de computação gráfica 3D e tecnologias relacionadas.
Computação gráfica 3D são diferentes de computação gráfica 2D em que uma representação tridimensional de dados geométricos são armazenados no computador para fins de realização de cálculos e processamento de imagens 2D. Essas imagens podem ser para exibição mais tarde ou para visualização em tempo real.
Modelagem 3D é o processo de preparação de dados geométricos para computação gráfica 3D, e é semelhante a escultura ou fotografia, enquanto que a arte de gráficos 2D é semelhante a pintar. Apesar destas diferenças, computação gráfica 3D confiar em muitos dos mesmos algoritmos como computação gráfica 2D.
No computador softwares gráficos, a distinção entre 2D e 3D é ocasionalmente turva; aplicações 2D pode usar técnicas em 3D para conseguir efeitos como iluminação, e principalmente 3D pode utilizar técnicas de 2D.
Conteúdo
1 Tecnologia
2 Criação de computação gráfica 3D Modeling 2,1
3 Processo de 3,1 configuração de layout de Cena
3,2 Tessellation e malhas
3,3 Rendering
3,4 Renderers 3.4.1 Projeção
4 Reflexão e modelos de sombreamento
5 de gráficos 3D APIs
6 Veja também
/ /
[Editar] Tecnologia
OpenGL e Direct3D duas APIs popular para geração de imagens em tempo real. Tempo real significa que a geração de imagem ocorre em "tempo real", ou "on the fly", e pode ser altamente user-interativo. Muitas placas de vídeo modernas fornecer algum grau de aceleração de hardware com base nessas APIs, freqüentemente permitindo exibição de complexos gráficos 3D em tempo real.
[Editar] Criação de computação gráfica 3D, como visto na FaceYourArt.com
Modelo 3D de uma ponte suspensa abrangendo um corpo extraordinariamente plácido de água
Composição processamento de arquitectura de modelagem e iluminação finalizado pelo processo de renderização
O processo de criação de computação gráfica 3D pode ser seqüencialmente dividido em três fases básicas:
Criação de conteúdo 3D (modelagem, texturização, animação)
Configuração de layout de cena
Rendering
[Editar] Modelagem
A etapa de modelagem poderia ser descrito como moldar objetos individuais que são depois usados na cena. Existe um certo número de técnicas de modelação, incluindo, mas não se limitam ao seguinte:
geometria sólida construtiva
Modelagem NURBS
modelagem poligonal
superfícies de subdivisão
superfícies implícitas
Processos de modelagem também pode incluir superfície do objeto de edição ou propriedades do material (por exemplo, luminosidade, cor, sombreamento componentes difusa e especular - rugosidade mais comumente chamado e brilho, características de reflexão, transparência ou opacidade, ou índice de refração), acrescentando texturas, bump-mapas e outros recursos.
Modelagem pode também incluir várias actividades relacionadas com a preparação de um modelo 3D para animação (embora em um modelo de caráter complexo isso vai se tornar um palco próprio, conhecido como rigging). Os objetos podem ser equipados com um esqueleto, uma estrutura central de um objeto com a capacidade de afetar a forma ou os movimentos desse objeto. Isto auxilia no processo de animação, em que o movimento do esqueleto automaticamente afectar as porções correspondentes do modelo. Veja também animação cinemática direta e animação cinemática inversa. Na fase de aparelhamento, o modelo também pode ser dada controles específicos para fazer a animação mais fácil e intuitiva, como controles de expressão facial e formas boca (fonemas) para lipsyncing.
A modelagem pode ser realizada por meio de um programa dedicado (por exemplo, Lightwave Modeler, Rhinoceros 3D, Moray), um componente de aplicação (Shaper, Lofter em 3D Studio) ou alguma linguagem de descrição de cena (como no POV-Ray). Em alguns casos, não existe uma distinção clara entre estas fases, em tais casos, a modelagem é apenas uma parte do processo de criação da cena (este é o caso, por exemplo, com Caligari trueSpace e 3D Realsoft).
Sistema de partículas são uma massa de coordenadas 3D, que têm tanto pontos, polígonos ou sprites splats atribuir a eles. Eles agem como um volume de representar uma forma.
[Editar] Processo
Uma cena 3D de 8 bolas de vidro vermelhas
[Editar] Configuração do layout da cena
Configuração de cena envolve organizar objetos virtuais, luzes, câmeras e outras entidades sobre uma cena que posteriormente serão usadas para produzir uma imagem estática ou uma animação. Se for utilizado para a animação, nesta fase geralmente faz uso de uma técnica chamada de "keyframing", que facilita a criação do movimento complicado na cena. Com a ajuda de keyframing, em vez de ter de fixar a posição de um objeto, rotação ou escala para cada quadro da animação, a pessoa precisa apenas configurar alguns quadros-chave entre os Estados em cada frame são interpolados.
A iluminação é um aspecto importante da configuração do ambiente. Como é o caso no mundo real arranjo cena, a iluminação é um factor importante que contribui para a qualidade resultante e estética visual do trabalho acabado. Como tal, ele pode ser uma arte difícil de dominar. Efeitos de iluminação pode contribuir muito para o humor e resposta emocional efectuada por uma cena, um fato que é bem conhecido para os fotógrafos e técnicos de iluminação teatral.
[Editar] Tessellation e malhas, como visto em [http://www.FaceYourArt.com]
O processo de transformação de representações de objectos, tais como a coordenada do ponto médio de uma esfera e de um ponto na sua circunferência em uma representação polígono de uma esfera, é chamado de mosaico. Este passo é usado em polígono renderização baseada, onde os objetos são divididos de representações abstratas ("primitivos"), tais como esferas, cones, etc, para malhas chamados, que são redes de triângulos interligados.
Malhas de triângulos (em vez de praças, por exemplo) são populares como eles provaram ser fácil de processar usando scanline rendering.
Representações polígono não são utilizadas em todas as técnicas de processamento, e, nestes casos, o passo de mosaico não está incluída na transição da representação abstracta de cena processada.
[Editar] Rendering como visto em [http://www.FaceYourArt.com]
Renderização é o processo final de criação da imagem real ou animação 2D da cena preparada. Isso pode ser comparado a tirar uma foto ou filmar a cena após a instalação for concluída na vida real.
Renderização para mídias interativas, como jogos e simulações, é calculado e exibido em tempo real, com taxas de cerca de 20 a 120 quadros por segundo. Animações para não-interativos de mídia, como filmes e vídeos, são processados muito mais lentamente. Não real renderização em tempo permite a utilização do poder de processamento limitado, a fim de obter uma qualidade de imagem superior. Tempos de renderização para quadros individuais podem variar de alguns segundos até vários dias para cenas complexas. Quadros processados são armazenados em um disco rígido, em seguida podem ser transferidos para outras mídias, como filme cinematográfico ou disco óptico. Esses quadros são exibidos sequencialmente em altas taxas de quadros, geralmente 24, 25 ou 30 quadros por segundo, para alcançar a ilusão de movimento.
Vários diferente, e muitas vezes especializada, métodos de processamento têm sido desenvolvidos. Estes vão desde a prestação wireframe distintamente não-realista, através de polígono renderização baseada, de técnicas mais avançadas, tais como: scanline rendering, traçado de raios, ou radiosidade. Em geral, diferentes métodos são mais adequados para cada renderização foto-realística, ou renderização em tempo real.
Em renderização em tempo real, o objetivo é mostrar informações, tanto quanto possível, o olho pode processar em um 30 de um segundo (frame ou um, no caso de 30 quadros por segundo de animação). O objetivo aqui é principalmente a velocidade e não foto-realismo. Na verdade, aqui explorações são feitas no caminho "percebe" o olho do mundo e, assim, a imagem final apresentado não é necessariamente a do mundo real, mas que o olho pode associar-se intimamente. Este é o método básico utilizado em jogos, mundos interativos, VRML. O rápido aumento no poder de processamento do computador tem permitido um grau progressivamente maior de realismo mesmo para renderização em tempo real, incluindo técnicas como HDR. Renderização em tempo real é muitas vezes poligonal e auxiliado por GPU do computador.
Um exemplo de uma imagem de raio-traçadas que normalmente leva alguns segundos ou minutos para processar. A foto-realismo é aparente.
Quando o objetivo é foto-realismo, as técnicas são empregadas, como o traçado de raios ou radiosidade. Renderização muitas vezes leva da ordem de segundos ou às vezes até mesmo dias (para uma única imagem / frame). Este é o método básico utilizado em mídia digital e obras artísticas, etc
Prestação de software pode simular tais efeitos visuais como alargamentos da lente, profundidade de campo ou borrão de movimento. Estas são as tentativas para simular fenómenos visuais resultantes das características ópticas das câmaras e do olho humano. Estes efeitos podem emprestar um elemento de realismo de uma cena, mesmo que o efeito é meramente um artefacto simulada de uma câmara.
Técnicas têm sido desenvolvidas com o objectivo de simular outros efeitos que ocorrem naturalmente, tais como a interacção da luz com várias formas de matéria. Exemplos de tais técnicas incluem sistemas de partículas (que podem simular a chuva, o fumo ou incêndio), amostragem volumétrica (para simular poeira nevoeiro, e outros efeitos atmosféricos espaciais), cáusticos (para simular a luz incidindo por desiguais luz refracção superfícies, tais como o ondulações de luz observadas no fundo de uma piscina), e de espalhamento de subsuperfície (para simular a luz reflectindo no interior dos volumes de objectos sólidos, tais como a pele humana).
O processo de renderização é computacionalmente cara, dada a complexa variedade de processos físicos que está sendo simulado. Poder de processamento do computador tem aumentado rapidamente nos últimos anos, permitindo um grau progressivamente maior de renderização realista. Estúdios de cinema que produzem animações geradas por computador normalmente fazem uso de uma fazenda de renderização para gerar imagens em tempo hábil. No entanto, os custos de hardware em queda significa que é inteiramente possível criar pequenas quantidades de animação 3D em um sistema de computador em casa.
A saída do representante é frequentemente utilizado como apenas uma parte pequena de um concluída cena de cinema. Muitas camadas de material podem ser processados separadamente e integrados no tiro final usando o software de composição.
[Editar] Renderers como visto em [http://www.FaceYourArt.com]
Muitas vezes renderizadores são incluídos em pacotes de software 3D, mas existem alguns sistemas de renderização que são usados como plugins para populares aplicações 3D. Esses sistemas de processamento incluem:
AccuRender para SketchUp
Brasil r / s
Bunkspeed
Final-de renderização
Maxwell
mental ray
POV-Ray
Realsoft 3D
Pixar RenderMan
V-Ray
YafRay
Indigo Renderer
[Editar] Projeção
Projeção Perspectiva
Uma vez que o olho humano vê três dimensões, o modelo matemático representados dentro do computador deve ser transformado novamente para que o olho humano pode correlacionar a imagem para um realista. Mas o facto de que o dispositivo de visualização - ou seja, um monitor - podem exibir apenas duas dimensões significa que este modelo matemático tem de ser transferido para uma imagem bidimensional. Muitas vezes, isso é feito usando projeção; principalmente usando projeção em perspectiva. A idéia básica por trás da projeção de perspectiva, o que não surpreende é a maneira como o olho humano funciona, é que os objetos que estão mais distantes são menores em relação aos que estão mais perto do olho. Assim, para fechar a terceira dimensão sobre uma tela, uma operação correspondente é levada a cabo para removê-la - neste caso, a operação de divisão.
Projeção ortográfica é usado principalmente em CAD ou CAM aplicações onde modelagem científica requer medidas precisas e preservação da terceira dimensão.
[Editar] modelos de reflexão e sombreamento como visto em [http://www.FaceYourArt.com]
Modernos de computação gráfica 3D dependem fortemente de um modelo simplificado chamado modelo de reflexão reflexão Phong (para não ser confundido com o sombreamento Phong).
Na refração da luz, um conceito importante é o índice de refração. Na maioria das implementações de programação em 3D, o prazo para esse valor é "índice de refração", geralmente abreviado "IOR".
Técnicas de reflexão populares renderização em computação gráfica 3D incluem:
Sombreamento plano: uma técnica que cada polígono tons de um objecto com base no polígono "normal" e a posição e a intensidade de uma fonte de luz.
Gouraud shading: Inventado por H. Gouraud em 1971, uma técnica de sombreamento rápido e recursos consciente vértice usado para simular superfícies suavemente sombreadas.
O mapeamento de textura: Uma técnica para simular uma grande quantidade de pormenores da superfície por meio de imagens de mapeamento (texturas) em polígonos.
Phong shading: Inventado por Bui Tuong Phong, usado para simular reflexos especulares e lisas superfícies sombreadas.
Colisão de mapeamento: Inventado por Jim Blinn, uma técnica de perturbação do normal usado para simular superfícies enrugadas.
Sombreamento Cel: Uma técnica usada para imitar a aparência de mão animação desenhada.
[Editar] gráficos 3D APIs
Gráficos 3D tornaram-se tão popular, particularmente em jogos de computador, que se especializou APIs (interfaces de programação de aplicativos) foram criados para facilitar os processos em todas as etapas de geração de computação gráfica. Essas APIs também provaram vital para os fabricantes de computadores de hardware gráfico, como eles fornecem uma maneira para os programadores para acessar o hardware de uma forma abstrata, tirando proveito do hardware especial desta ou aquela placa de vídeo.
Essas APIs para gráficos de computador 3D são particularmente populares:
OpenGL e OpenGL Shading Language
OpenGL ES API 3D para dispositivos embarcados
Direct3D (um subconjunto do DirectX)
RenderMan
RenderWare
Glide API
TruDimension LC óculos 3D e do monitor API
Há também de nível superior APIs cena gráfico em 3D, que oferecem funcionalidades adicionais no topo da API de renderização de nível inferior. Essas bibliotecas em desenvolvimento ativo incluem:
QSDK
Quesa
Java 3D
Gsi3d
JSR 184 (M3G)
Vega Prime por Multigen-Paradigma
NVidia Scene Graph
OpenSceneGraph
OpenSG
OGRE
JMonkey Motor
Irrlicht Engine
Hoops3D
UGS DirectModel (aka JT)
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário