quinta-feira, 15 de novembro de 2012

O defenition completa do 3D


Computação gráfica 3D, como visto na FaceYourArt.com

A renderização 3D com raytracing e oclusão de ambiente usando o Blender e Yafray

Computação gráfica 3D são obras de arte gráfica criadas com a ajuda de computadores digitais e software 3D. O termo também pode se referir ao processo de criação de tais gráficos, ou o campo de estudo de técnicas de computação gráfica 3D e tecnologias relacionadas.

Computação gráfica 3D são diferentes de computação gráfica 2D em que uma representação tridimensional de dados geométricos são armazenados no computador para fins de realização de cálculos e processamento de imagens 2D. Essas imagens podem ser para exibição mais tarde ou para visualização em tempo real.

Modelagem 3D é o processo de preparação de dados geométricos para computação gráfica 3D, e é semelhante a escultura ou fotografia, enquanto que a arte de gráficos 2D é semelhante a pintar. Apesar destas diferenças, computação gráfica 3D confiar em muitos dos mesmos algoritmos como computação gráfica 2D.

No computador softwares gráficos, a distinção entre 2D e 3D é ocasionalmente turva; aplicações 2D pode usar técnicas em 3D para conseguir efeitos como iluminação, e principalmente 3D pode utilizar técnicas de 2D.

Conteúdo

1 Tecnologia

2 Criação de computação gráfica 3D Modeling 2,1

3 Processo de 3,1 configuração de layout de Cena

3,2 Tessellation e malhas

3,3 Rendering

3,4 Renderers 3.4.1 Projeção

4 Reflexão e modelos de sombreamento

5 de gráficos 3D APIs

6 Veja também

/ /

[Editar] Tecnologia

OpenGL e Direct3D duas APIs popular para geração de imagens em tempo real. Tempo real significa que a geração de imagem ocorre em "tempo real", ou "on the fly", e pode ser altamente user-interativo. Muitas placas de vídeo modernas fornecer algum grau de aceleração de hardware com base nessas APIs, freqüentemente permitindo exibição de complexos gráficos 3D em tempo real.

[Editar] Criação de computação gráfica 3D, como visto na FaceYourArt.com

Modelo 3D de uma ponte suspensa abrangendo um corpo extraordinariamente plácido de água

Composição processamento de arquitectura de modelagem e iluminação finalizado pelo processo de renderização

O processo de criação de computação gráfica 3D pode ser seqüencialmente dividido em três fases básicas:

Criação de conteúdo 3D (modelagem, texturização, animação)

Configuração de layout de cena

Rendering

[Editar] Modelagem

A etapa de modelagem poderia ser descrito como moldar objetos individuais que são depois usados ​​na cena. Existe um certo número de técnicas de modelação, incluindo, mas não se limitam ao seguinte:

geometria sólida construtiva

Modelagem NURBS

modelagem poligonal

superfícies de subdivisão

superfícies implícitas

Processos de modelagem também pode incluir superfície do objeto de edição ou propriedades do material (por exemplo, luminosidade, cor, sombreamento componentes difusa e especular - rugosidade mais comumente chamado e brilho, características de reflexão, transparência ou opacidade, ou índice de refração), acrescentando texturas, bump-mapas e outros recursos.

Modelagem pode também incluir várias actividades relacionadas com a preparação de um modelo 3D para animação (embora em um modelo de caráter complexo isso vai se tornar um palco próprio, conhecido como rigging). Os objetos podem ser equipados com um esqueleto, uma estrutura central de um objeto com a capacidade de afetar a forma ou os movimentos desse objeto. Isto auxilia no processo de animação, em que o movimento do esqueleto automaticamente afectar as porções correspondentes do modelo. Veja também animação cinemática direta e animação cinemática inversa. Na fase de aparelhamento, o modelo também pode ser dada controles específicos para fazer a animação mais fácil e intuitiva, como controles de expressão facial e formas boca (fonemas) para lipsyncing.

A modelagem pode ser realizada por meio de um programa dedicado (por exemplo, Lightwave Modeler, Rhinoceros 3D, Moray), um componente de aplicação (Shaper, Lofter em 3D Studio) ou alguma linguagem de descrição de cena (como no POV-Ray). Em alguns casos, não existe uma distinção clara entre estas fases, em tais casos, a modelagem é apenas uma parte do processo de criação da cena (este é o caso, por exemplo, com Caligari trueSpace e 3D Realsoft).

Sistema de partículas são uma massa de coordenadas 3D, que têm tanto pontos, polígonos ou sprites splats atribuir a eles. Eles agem como um volume de representar uma forma.

[Editar] Processo

Uma cena 3D de 8 bolas de vidro vermelhas

[Editar] Configuração do layout da cena

Configuração de cena envolve organizar objetos virtuais, luzes, câmeras e outras entidades sobre uma cena que posteriormente serão usadas para produzir uma imagem estática ou uma animação. Se for utilizado para a animação, nesta fase geralmente faz uso de uma técnica chamada de "keyframing", que facilita a criação do movimento complicado na cena. Com a ajuda de keyframing, em vez de ter de fixar a posição de um objeto, rotação ou escala para cada quadro da animação, a pessoa precisa apenas configurar alguns quadros-chave entre os Estados em cada frame são interpolados.

A iluminação é um aspecto importante da configuração do ambiente. Como é o caso no mundo real arranjo cena, a iluminação é um factor importante que contribui para a qualidade resultante e estética visual do trabalho acabado. Como tal, ele pode ser uma arte difícil de dominar. Efeitos de iluminação pode contribuir muito para o humor e resposta emocional efectuada por uma cena, um fato que é bem conhecido para os fotógrafos e técnicos de iluminação teatral.

[Editar] Tessellation e malhas, como visto em [http://www.FaceYourArt.com]

O processo de transformação de representações de objectos, tais como a coordenada do ponto médio de uma esfera e de um ponto na sua circunferência em uma representação polígono de uma esfera, é chamado de mosaico. Este passo é usado em polígono renderização baseada, onde os objetos são divididos de representações abstratas ("primitivos"), tais como esferas, cones, etc, para malhas chamados, que são redes de triângulos interligados.

Malhas de triângulos (em vez de praças, por exemplo) são populares como eles provaram ser fácil de processar usando scanline rendering.

Representações polígono não são utilizadas em todas as técnicas de processamento, e, nestes casos, o passo de mosaico não está incluída na transição da representação abstracta de cena processada.

[Editar] Rendering como visto em [http://www.FaceYourArt.com]

Renderização é o processo final de criação da imagem real ou animação 2D da cena preparada. Isso pode ser comparado a tirar uma foto ou filmar a cena após a instalação for concluída na vida real.

Renderização para mídias interativas, como jogos e simulações, é calculado e exibido em tempo real, com taxas de cerca de 20 a 120 quadros por segundo. Animações para não-interativos de mídia, como filmes e vídeos, são processados ​​muito mais lentamente. Não real renderização em tempo permite a utilização do poder de processamento limitado, a fim de obter uma qualidade de imagem superior. Tempos de renderização para quadros individuais podem variar de alguns segundos até vários dias para cenas complexas. Quadros processados ​​são armazenados em um disco rígido, em seguida podem ser transferidos para outras mídias, como filme cinematográfico ou disco óptico. Esses quadros são exibidos sequencialmente em altas taxas de quadros, geralmente 24, 25 ou 30 quadros por segundo, para alcançar a ilusão de movimento.

Vários diferente, e muitas vezes especializada, métodos de processamento têm sido desenvolvidos. Estes vão desde a prestação wireframe distintamente não-realista, através de polígono renderização baseada, de técnicas mais avançadas, tais como: scanline rendering, traçado de raios, ou radiosidade. Em geral, diferentes métodos são mais adequados para cada renderização foto-realística, ou renderização em tempo real.

Em renderização em tempo real, o objetivo é mostrar informações, tanto quanto possível, o olho pode processar em um 30 de um segundo (frame ou um, no caso de 30 quadros por segundo de animação). O objetivo aqui é principalmente a velocidade e não foto-realismo. Na verdade, aqui explorações são feitas no caminho "percebe" o olho do mundo e, assim, a imagem final apresentado não é necessariamente a do mundo real, mas que o olho pode associar-se intimamente. Este é o método básico utilizado em jogos, mundos interativos, VRML. O rápido aumento no poder de processamento do computador tem permitido um grau progressivamente maior de realismo mesmo para renderização em tempo real, incluindo técnicas como HDR. Renderização em tempo real é muitas vezes poligonal e auxiliado por GPU do computador.

Um exemplo de uma imagem de raio-traçadas que normalmente leva alguns segundos ou minutos para processar. A foto-realismo é aparente.

Quando o objetivo é foto-realismo, as técnicas são empregadas, como o traçado de raios ou radiosidade. Renderização muitas vezes leva da ordem de segundos ou às vezes até mesmo dias (para uma única imagem / frame). Este é o método básico utilizado em mídia digital e obras artísticas, etc

Prestação de software pode simular tais efeitos visuais como alargamentos da lente, profundidade de campo ou borrão de movimento. Estas são as tentativas para simular fenómenos visuais resultantes das características ópticas das câmaras e do olho humano. Estes efeitos podem emprestar um elemento de realismo de uma cena, mesmo que o efeito é meramente um artefacto simulada de uma câmara.

Técnicas têm sido desenvolvidas com o objectivo de simular outros efeitos que ocorrem naturalmente, tais como a interacção da luz com várias formas de matéria. Exemplos de tais técnicas incluem sistemas de partículas (que podem simular a chuva, o fumo ou incêndio), amostragem volumétrica (para simular poeira nevoeiro, e outros efeitos atmosféricos espaciais), cáusticos (para simular a luz incidindo por desiguais luz refracção superfícies, tais como o ondulações de luz observadas no fundo de uma piscina), e de espalhamento de subsuperfície (para simular a luz reflectindo no interior dos volumes de objectos sólidos, tais como a pele humana).

O processo de renderização é computacionalmente cara, dada a complexa variedade de processos físicos que está sendo simulado. Poder de processamento do computador tem aumentado rapidamente nos últimos anos, permitindo um grau progressivamente maior de renderização realista. Estúdios de cinema que produzem animações geradas por computador normalmente fazem uso de uma fazenda de renderização para gerar imagens em tempo hábil. No entanto, os custos de hardware em queda significa que é inteiramente possível criar pequenas quantidades de animação 3D em um sistema de computador em casa.

A saída do representante é frequentemente utilizado como apenas uma parte pequena de um concluída cena de cinema. Muitas camadas de material podem ser processados ​​separadamente e integrados no tiro final usando o software de composição.

[Editar] Renderers como visto em [http://www.FaceYourArt.com]

Muitas vezes renderizadores são incluídos em pacotes de software 3D, mas existem alguns sistemas de renderização que são usados ​​como plugins para populares aplicações 3D. Esses sistemas de processamento incluem:

AccuRender para SketchUp

Brasil r / s

Bunkspeed

Final-de renderização

Maxwell

mental ray

POV-Ray

Realsoft 3D

Pixar RenderMan

V-Ray

YafRay

Indigo Renderer

[Editar] Projeção

Projeção Perspectiva

Uma vez que o olho humano vê três dimensões, o modelo matemático representados dentro do computador deve ser transformado novamente para que o olho humano pode correlacionar a imagem para um realista. Mas o facto de que o dispositivo de visualização - ou seja, um monitor - podem exibir apenas duas dimensões significa que este modelo matemático tem de ser transferido para uma imagem bidimensional. Muitas vezes, isso é feito usando projeção; principalmente usando projeção em perspectiva. A idéia básica por trás da projeção de perspectiva, o que não surpreende é a maneira como o olho humano funciona, é que os objetos que estão mais distantes são menores em relação aos que estão mais perto do olho. Assim, para fechar a terceira dimensão sobre uma tela, uma operação correspondente é levada a cabo para removê-la - neste caso, a operação de divisão.

Projeção ortográfica é usado principalmente em CAD ou CAM aplicações onde modelagem científica requer medidas precisas e preservação da terceira dimensão.

[Editar] modelos de reflexão e sombreamento como visto em [http://www.FaceYourArt.com]

Modernos de computação gráfica 3D dependem fortemente de um modelo simplificado chamado modelo de reflexão reflexão Phong (para não ser confundido com o sombreamento Phong).

Na refração da luz, um conceito importante é o índice de refração. Na maioria das implementações de programação em 3D, o prazo para esse valor é "índice de refração", geralmente abreviado "IOR".

Técnicas de reflexão populares renderização em computação gráfica 3D incluem:

Sombreamento plano: uma técnica que cada polígono tons de um objecto com base no polígono "normal" e a posição e a intensidade de uma fonte de luz.

Gouraud shading: Inventado por H. Gouraud em 1971, uma técnica de sombreamento rápido e recursos consciente vértice usado para simular superfícies suavemente sombreadas.

O mapeamento de textura: Uma técnica para simular uma grande quantidade de pormenores da superfície por meio de imagens de mapeamento (texturas) em polígonos.

Phong shading: Inventado por Bui Tuong Phong, usado para simular reflexos especulares e lisas superfícies sombreadas.

Colisão de mapeamento: Inventado por Jim Blinn, uma técnica de perturbação do normal usado para simular superfícies enrugadas.

Sombreamento Cel: Uma técnica usada para imitar a aparência de mão animação desenhada.

[Editar] gráficos 3D APIs

Gráficos 3D tornaram-se tão popular, particularmente em jogos de computador, que se especializou APIs (interfaces de programação de aplicativos) foram criados para facilitar os processos em todas as etapas de geração de computação gráfica. Essas APIs também provaram vital para os fabricantes de computadores de hardware gráfico, como eles fornecem uma maneira para os programadores para acessar o hardware de uma forma abstrata, tirando proveito do hardware especial desta ou aquela placa de vídeo.

Essas APIs para gráficos de computador 3D são particularmente populares:

OpenGL e OpenGL Shading Language

OpenGL ES API 3D para dispositivos embarcados

Direct3D (um subconjunto do DirectX)

RenderMan

RenderWare

Glide API

TruDimension LC óculos 3D e do monitor API

Há também de nível superior APIs cena gráfico em 3D, que oferecem funcionalidades adicionais no topo da API de renderização de nível inferior. Essas bibliotecas em desenvolvimento ativo incluem:

QSDK

Quesa

Java 3D

Gsi3d

JSR 184 (M3G)

Vega Prime por Multigen-Paradigma

NVidia Scene Graph

OpenSceneGraph

OpenSG

OGRE

JMonkey Motor

Irrlicht Engine

Hoops3D

UGS DirectModel (aka JT)

Nenhum comentário:

Postar um comentário