Infographie 3D comme vu sur FaceYourArt.com
Un rendu 3D avec lancer de rayons et l'occlusion ambiante en utilisant Blender et Yafray
Infographie 3D sont des œuvres d'art graphique créé à l'aide de calculateurs numériques et de logiciels 3D. Le terme peut également se référer au processus de création de graphiques, ou le champ d'étude des techniques informatiques graphiques en 3D et des technologies connexes.
Infographie 3D sont différents de l'informatique graphique 2D en ce que la représentation tridimensionnelle des données géométriques sont stockées dans l'ordinateur à des fins d'exécution de calculs et le rendu des images 2D. Ces images peuvent être pour un affichage ultérieur ou pour visualisation en temps réel.
Modélisation 3D est le processus de préparation des données géométriques pour l'infographie 3D, et s'apparente à la sculpture ou la photographie, alors que l'art du graphisme 2D est analogue à la peinture. En dépit de ces différences, de l'infographie 3D compter sur de nombreux les mêmes algorithmes que l'infographie 2D.
Dans logiciels d'infographie, la distinction entre les modes 2D et 3D est parfois floue; applications 2D peut utiliser des techniques 3D pour obtenir des effets tels que l'éclairage, et surtout 3D peut utiliser des techniques 2D.
Contenu
1 Technologie
2 Création de l'infographie 3D 2.1 Modélisation
3 Processus 3.1 Configuration disposition Scène
3,2 Tessellation et engrène
3.3 Rendu
3,4 Renderers 3.4.1 Projection
4 Réflexion et modèles d'ombrage
5 3D API graphiques
6 Voir aussi
/ /
[Modifier] Technologie
OpenGL et Direct3D sont deux API populaire pour la génération d'images en temps réel. Le temps réel signifie que la génération de l'image se produit en «temps réel», ou «à la volée», et peuvent être très interactive par l'utilisateur. Beaucoup de cartes graphiques modernes offrent un certain degré d'accélération matérielle basée sur ces API, fréquemment permettant l'affichage de graphismes 3D complexes en temps réel.
[Modifier] Création de l'infographie 3D comme on le voit sur FaceYourArt.com
Modèle 3D d'un pont suspendu enjambant un corps exceptionnellement calme de l'eau
Compositing rendu d'architecture de la modélisation et de l'éclairage mis au point par processus de rendu
Le processus de création d'images de synthèse 3D peut être séquentielle divisé en trois phases principales:
La création de contenu (modélisation 3D, texturing, animation)
Configuration mise en scène
Rendu
[Modifier] Modélisation
L'étape de modélisation pourrait être décrit comme l'élaboration des objets individuels qui sont ensuite utilisés dans la scène. Il existe un certain nombre de techniques de modélisation, y compris, mais sans s'y limiter, ce qui suit:
Constructive Solid Geometry
Modélisation NURBS
modélisation polygonale
surfaces de subdivision
surfaces implicites
Processus de modélisation peut également inclure surface de l'objet ou de l'édition des propriétés des matériaux (par exemple, la couleur, la luminosité, les composants d'ombrage diffus et spéculaires - rugosité plus communément appelée et la brillance, des caractéristiques de réflexion, la transparence ou l'opacité, ou d'un indice de réfraction), ajouter des textures, bump-maps et d'autres caractéristiques.
Modélisation peut également inclure diverses activités liées à la préparation d'un modèle 3D pour l'animation (bien que dans un modèle de personnage complexe cela deviendra une étape à part entière, connue sous le nom gréement). Les objets peuvent être équipés d'un squelette, un cadre central d'un objet avec la capacité d'influer sur la forme ou le mouvement de cet objet. Ceci facilite le processus d'animation, en ce que le mouvement du squelette des conséquences sur les parties correspondantes du modèle. Voir aussi animation avant cinématique inverse et animation cinématique. À l'étape de calage, le modèle peut également être donné contrôles spécifiques visant à faire de l'animation plus facile et plus intuitive, tels que les contrôles et les formes d'expression du visage bouche (phonèmes) pour lipsyncing.
La modélisation peut être effectuée au moyen d'un programme spécifique (par exemple, Lightwave Modeler, Rhinoceros 3D, Moray), un composant d'application (Shaper, Lofter dans 3D Studio) ou tout autre langage de description de scène (comme dans POV-Ray). Dans certains cas, il n'ya pas de distinction stricte entre ces phases; dans ce cas, la modélisation n'est qu'une partie du processus de création de la scène (c'est le cas, par exemple, avec Caligari trueSpace et Realsoft 3D).
Système de particules sont une masse de coordonnées 3D qui ont soit des points, des polygones, splats ou sprites leur attribuez. Ils agissent comme un volume de représenter une forme.
[Modifier] Processus
Une scène 3D de 8 boules de verre rouges
[Modifier] La configuration mise en scène
Configuration de scène consiste à disposer des objets virtuels, des lumières, des caméras et d'autres entités sur une scène qui sera ensuite utilisée pour produire une image fixe ou une animation. Si elle est utilisée pour l'animation, cette phase fait généralement usage d'une technique appelée «images clés», ce qui facilite la création d'un mouvement compliqué dans la scène. Avec l'aide d'images clés, au lieu d'avoir à fixer la position d'un objet, rotation, mise à l'échelle ou pour chaque image de l'animation, il suffit de mettre en place des cadres principaux entre lesquels les Etats dans chaque image sont interpolés.
L'éclairage est un aspect important de la configuration de scène. Comme c'est le cas en accord scène du monde réel, l'éclairage est un facteur important qui contribue à la qualité esthétique et visuelle résultant de l'ouvrage fini. En tant que tel, il peut être un art difficile à maîtriser. Les effets de lumière peuvent contribuer grandement à l'ambiance et la réponse émotionnelle effectuée par une scène, ce qui est bien connu des photographes et techniciens d'éclairage de théâtre.
[Modifier] Tessellation mailles et comme on le voit sur [http://www.FaceYourArt.com]
Le processus de transformation de représentations d'objets, tels que la coordonnée du point milieu d'une sphère et un point situé sur la circonférence en une représentation polygonale d'une sphère, est appelé pavage. Cette étape est utilisée dans le polygone basé sur le rendu, où les objets sont ventilés à partir des représentations abstraites ("primitives") tels que des sphères, cônes, etc, pour des maillages dits, qui sont des filets de triangles reliés entre eux.
Les maillages de triangles (au lieu de carrés, par exemple) sont populaires car ils se sont révélés être facile de rendre l'aide du rendu scanline.
Représentations polygonales sont pas utilisés dans toutes les techniques de rendu, et dans ces cas, l'étape de tessellation n'est pas inclus dans la transition de la représentation abstraite de scène rendue.
[Modifier] Rendu comme on le voit sur [http://www.FaceYourArt.com]
Le rendu est le processus final de création de l'image réelle ou d'animation 2D de la scène préparée. Cela peut être comparé à prendre une photo ou de filmer la scène après l'installation est terminée dans la vraie vie.
Rendu des médias interactifs tels que des jeux et des simulations, est calculé et affiché en temps réel, à des taux d'environ 20 à 120 images par seconde. Animations pour les non-interactifs médias, telles que longs métrages et vidéo, sont rendues beaucoup plus lentement. Rendu en temps non réel permet la mise à profit de la puissance de traitement limitée afin d'obtenir une meilleure qualité d'image. Temps de rendu pour les images individuelles peuvent varier de quelques secondes à plusieurs jours pour les scènes complexes. Images rendues sont stockés sur un disque dur, peuvent être transférés à d'autres médias tels que les films cinématographiques ou un disque optique. Ces images sont ensuite affichées de manière séquentielle à des cadences élevées, généralement 24, 25 ou 30 images par seconde, pour atteindre l'illusion du mouvement.
Plusieurs différente, et souvent spécialisés, des méthodes de rendu ont été développés. Celles-ci vont du rendu filaire distinctement non-réaliste grâce polygone basé sur le rendu, à des techniques plus avancées telles que: le rendu scanline, le ray tracing, ou la radiosité. En général, les différentes méthodes sont mieux adaptés pour soit rendu photo-réaliste, ou rendu en temps réel.
Dans rendu en temps réel, l'objectif est de montrer autant d'informations que possible, car l'œil peut traiter en une 30 seconde (frame ou un, dans le cas de 30 images par seconde d'animation). Le but ici est avant tout la vitesse et non photo-réalisme. En fait, voici les exploitations sont réalisés dans la voie de l'oeil "perçoit" le monde, et donc l'image finale présentée n'est pas nécessairement celle du monde réel, mais l'un que l'œil peut associer étroitement à. Il s'agit de la méthode de base utilisée dans les jeux, mondes interactifs, VRML. L'augmentation rapide de la puissance de traitement informatique a permis un degré progressivement plus élevé de réalisme, même pour le rendu en temps réel, y compris les techniques telles que le rendu HDR. Rendu en temps réel est souvent polygonale et aidé par GPU de l'ordinateur.
Un exemple d'une image en ray-tracing qui prend généralement quelques secondes ou minutes pour le rendu. La photo-réalisme est évident.
Lorsque l'objectif est le photo-réalisme, les techniques sont utilisés, tels que le lancer de rayon ou de radiosité. Le rendu prend souvent de l'ordre de quelques secondes ou parfois même des jours (pour une seule image / image). C'est la méthode de base employée dans les médias numériques et les œuvres artistiques, etc
Rendu logiciel peut simuler des effets visuels comme les lens flares, la profondeur de champ ou le flou de mouvement. Ce sont des tentatives pour simuler des phénomènes visuels résultant des caractéristiques optiques des caméras et de l'œil humain. Ces effets peuvent prêter un élément de réalisme à la scène, même si l'effet est simplement un artefact de simulation d'une caméra.
Des techniques ont été développées dans le but de simuler d'autres effets d'origine naturelle, tels que l'interaction de la lumière avec différentes formes de la matière. Des exemples de telles techniques comprennent des systèmes de particules (qui peuvent simuler la pluie, la fumée ou le feu), l'échantillonnage volumétrique (pour simuler le brouillard, la poussière et autres effets atmosphériques spatiales), de produits caustiques (pour simuler la lumière focalisation par inégales photoréfractifs surfaces, telles que le ondulations lumineuses visibles sur le fond d'une piscine), et la dispersion du sous-sol (pour simuler la lumière réfléchie à l'intérieur des volumes d'objets solides tels que la peau humaine).
Le processus de rendu est coûteux en calcul, compte tenu de la variété complexe de processus physiques simulés. Puissance de traitement des ordinateurs a augmenté rapidement au cours des années, permettant un certain degré progressivement le niveau de rendu réaliste. Studios de cinéma qui produisent des animations par ordinateur généralement faire usage d'une ferme de rendu pour générer des images en temps opportun. Cependant, la baisse des coûts matériels dire qu'il est tout à fait possible de créer de petites quantités d'animation 3D sur un système informatique à domicile.
La sortie du moteur de rendu est souvent utilisé comme une seule petite partie d'un achevés cinématographique scène. De nombreuses couches de matériau peut être rendu séparément et intégrés dans le plan final en utilisant un logiciel de compositing.
[Modifier] Les équarrisseurs comme on le voit sur [http://www.FaceYourArt.com]
Souvent, les rendus sont inclus dans les logiciels 3D, mais il ya des systèmes de rendu qui sont utilisés sous forme de plugins pour applications 3D. Ces systèmes de rendu incluent:
AccuRender pour SketchUp
Brésil r / s
Bunkspeed
Final-rendu
Maxwell
mental ray
POV-Ray
Realsoft 3D
Pixar RenderMan
V-Ray
YafRay
Indigo Renderer
[Modifier] Projection
Projection en perspective
Puisque l'oeil humain voit trois dimensions, le modèle mathématique représentée à l'intérieur de l'ordinateur doit être transformé à nouveau de sorte que l'œil humain peut mettre en corrélation l'image pour un objectif réaliste. Mais le fait que le dispositif d'affichage - à savoir un moniteur - ne peut afficher que deux dimensions signifie que ce modèle mathématique doit être transférée à une image en deux dimensions. Cela se fait souvent à l'aide de projection; la plupart du temps en utilisant une projection perspective. L'idée de base derrière la projection en perspective, ce qui est sans surprise le mode de fonctionnement de l'œil humain, c'est que les objets les plus éloignés sont plus petits par rapport à ceux qui sont plus près de l'œil. Ainsi, pour replier la troisième dimension sur un écran, une opération correspondante est mise en oeuvre pour la retirer - dans ce cas, une opération de division.
Projection orthographique est principalement utilisé dans les applications de CAO ou de FAO où la modélisation scientifique nécessite des mesures précises et la préservation de la troisième dimension.
[Modifier] Les modèles de réflexion et d'ombrage comme on le voit sur [http://www.FaceYourArt.com]
Modernes infographie 3D s'appuient fortement sur un modèle de réflexion simplifiée appelée modèle de réflexion Phong (à ne pas confondre avec Phong shading).
Dans réfraction de la lumière, une notion importante est l'indice de réfraction. Dans la plupart des implémentations de programmation 3D, le terme de cette valeur est "indice de réfraction", généralement abrégé "IOR".
Populaires des techniques de rendu de réflexion dans l'infographie 3D comprennent:
Flat shading: Une technique que les nuances de chaque polygone d'un objet basé sur le polygone "normal" et la position et l'intensité d'une source lumineuse.
Gouraud shading: Inventé par H. Gouraud en 1971, une technique d'ombrage rapide et ressources soucieux de vertex utilisé pour simuler des surfaces ombragées en douceur.
Texture mapping: Une technique permettant de simuler un grand nombre de détails de la surface par des images cartographiques (textures) sur les polygones.
Phong shading: Inventé par Bui Tuong Phong, utilisé pour simuler les reflets spéculaires et adoucir les surfaces ombragées.
Bump mapping: Inventé par Jim Blinn, une technique normale perturbation utilisée pour simuler des surfaces ridées.
Cel shading: Une technique utilisée pour imiter l'apparence de l'animation dessinée à la main.
[Modifier] 3D API graphiques
Graphismes 3D sont devenus si populaires, en particulier dans les jeux vidéo, qui se spécialise API (interfaces de programmation d'application) ont été créés pour faciliter les processus à toutes les étapes de génération d'infographie. Ces API sont également avérés essentiels pour les fabricants de matériel informatique graphiques, car ils fournissent un moyen pour les programmeurs d'accéder au matériel d'une manière abstraite, tout en tirant parti du matériel spécial de ce-ou-ce que la carte graphique.
Ces API pour l'infographie 3D sont particulièrement populaires:
OpenGL et OpenGL Shading Language
API OpenGL ES 3D pour les appareils embarqués
Direct3D (DirectX un sous-ensemble)
RenderMan
RenderWare
Glide API
TruDimension Lunettes 3D moniteur LCD et API
Il ya aussi de plus haut niveau scène 3D-graphique API qui fournissent des fonctionnalités supplémentaires au-dessus de l'API de rendu de niveau inférieur. Ces bibliothèques en cours de développement actif comprennent:
QSDK
Quesa
Java 3D
Gsi3d
JSR 184 (M3G)
Vega Prime par MultiGen-Paradigm
Scene Graph NVidia
OpenSceneGraph
OpenSG
OGRE
JMonkey moteur
Irrlicht Engine
Hoops3D
UGS DirectModel (alias JT)...
Aucun commentaire:
Enregistrer un commentaire