Representación 3D

La renderización 3D  es el proceso de convertir modelos 3D en imágenes 2D en una computadora . Los renderizados 3D pueden incluir efectos fotorrealistas o estilos no fotorrealistas.

Métodos de visualización

La renderización  es el proceso final de creación de una imagen 2D real o animación a partir de una escena preparada. Esto se puede comparar con tomar una foto o filmar una escena después de completar la configuración en la vida real [1] . Se han desarrollado varias modalidades de imagenología diferentes ya menudo especializadas . Estos van desde el renderizado de estructura alámbrica obviamente poco realista, pasando por el renderizado basado en polígonos, hasta técnicas más avanzadas como el renderizado de línea de exploración, el trazado de rayos y otros. La renderización puede tomar desde fracciones de segundo hasta varios días para una sola imagen/fotograma. En general, diferentes métodos son más adecuados tanto para el renderizado fotorrealista como para el renderizado en tiempo real [2] .

Tiempo real

La renderización para medios interactivos como juegos y simulaciones se calcula y renderiza en tiempo real a aproximadamente 20 a 120 fotogramas por segundo. Con el renderizado en tiempo real, el objetivo es mostrar tanta información como sea posible que el ojo pueda procesar en una fracción de segundo (por ejemplo, "en un cuadro": en el caso de una animación de 30 fps, un cuadro abarca una trigésima parte de un segundo).

El objetivo principal es lograr el mayor grado de fotorrealismo posible a una velocidad de renderizado mínima aceptable (normalmente 24 fotogramas por segundo, ya que este es el mínimo que el ojo humano necesita ver para crear con éxito la ilusión de movimiento). De hecho, las explotaciones se pueden aplicar a cómo el ojo "percibe" el mundo y, como resultado, la imagen final presentada no es necesariamente una imagen del mundo real, sino lo suficientemente cercana al ojo humano como para tolerarla.

El software de renderizado puede simular efectos visuales como destellos de lente, profundidad de campo o desenfoque de movimiento. Estos son intentos de simular fenómenos visuales resultantes de las características ópticas de las cámaras y el ojo humano. Estos efectos pueden agregar un elemento de realismo a una escena, incluso si el efecto es solo una imitación de un artefacto de cámara. Este es el principal método utilizado en juegos, mundos interactivos y VRML.

El rápido aumento en el poder de procesamiento de la computadora ha hecho posible lograr grados cada vez más altos de realismo incluso para el renderizado en tiempo real, incluidas técnicas como el renderizado HDR. La representación en tiempo real suele ser poligonal y es compatible con la GPU de la computadora [3] .

No en tiempo real

La animación para medios no interactivos, como largometrajes y videos, puede llevar mucho más tiempo [4] . La representación en tiempo no real le permite utilizar una potencia de procesamiento limitada para obtener una calidad de imagen superior. Los tiempos de renderizado para fotogramas individuales pueden variar desde unos pocos segundos hasta varios días para escenas complejas. Los fotogramas renderizados se almacenan en un disco duro y luego se transfieren a otros medios, como una película o un disco óptico. Luego, estos fotogramas se procesan secuencialmente a una alta velocidad de fotogramas, normalmente 24, 25 o 30 fotogramas por segundo (fps), para lograr la ilusión de movimiento.

Cuando el objetivo es el fotorrealismo, se utilizan métodos como el trazado de rayos, el trazado de rutas, el mapeo de fotones o la emisión de rayos. Este es el método principal utilizado en medios digitales y obras de arte. Se han desarrollado métodos con el objetivo de simular otros efectos naturales como la interacción de la luz con diversas formas de materia. Los ejemplos de tales métodos incluyen sistemas de partículas (que pueden simular lluvia, humo o fuego), muestreo volumétrico (para simular niebla, polvo y otros efectos atmosféricos espaciales), cáusticos (para simular el enfoque de la luz por superficies refractivas irregulares, como ondas de luz que se ven en el fondo de una piscina) y dispersión subsuperficial (para simular el reflejo de la luz dentro de los volúmenes de objetos sólidos como la piel humana).

El proceso de visualización es computacionalmente costoso dada la compleja variedad de procesos físicos que se modelan. El poder de procesamiento de la computadora ha crecido rápidamente a lo largo de los años, lo que permite aumentar gradualmente el grado de realismo. Los estudios de cine que crean animaciones por computadora generalmente usan una granja de procesamiento para crear imágenes de manera oportuna. Sin embargo, el costo decreciente del hardware significa que es totalmente posible crear una pequeña cantidad de animación 3D en una computadora doméstica. La salida del renderizador se usa a menudo como una pequeña parte de una escena de película completa. Muchas capas de material pueden renderizarse por separado e integrarse en la imagen final utilizando un software de composición.

Modelos de reflexión y sombreado

Los modelos de reflexión/dispersión y sombreado se utilizan para describir la apariencia de una superficie. Si bien estas preguntas pueden parecer problemas en sí mismas, se estudian casi exclusivamente en el contexto de la visualización. Los gráficos por computadora en 3D modernos se basan en gran medida en un modelo de reflexión simplificado llamado modelo de reflexión de Phong (que no debe confundirse con el sombreado de Phong). En la refracción de la luz, un concepto importante es el índice de refracción; la mayoría de las implementaciones de programación 3D usan el término "índice de refracción" (generalmente abreviado como IOR) para este valor.

El sombreado se puede dividir en dos técnicas distintas que a menudo se estudian de forma independiente:

Algoritmos de sombreado de superficies

Los algoritmos populares de sombreado de superficies en gráficos 3D por computadora incluyen:

Reflexión

La reflexión o dispersión es la relación entre la iluminación entrante y saliente en un punto dado. Las descripciones de dispersión generalmente se dan en términos de la función de distribución de dispersión bidireccional o BSDF [5] .

Sombreado

El sombreado se refiere a cómo se distribuyen los diferentes tipos de dispersión sobre una superficie (es decir, qué función de dispersión se aplica y dónde). Las descripciones de este tipo generalmente se expresan usando un programa llamado shader [6] . Un ejemplo simple de sombreado es el mapeo de texturas, que utiliza una imagen para difundir el color en cada punto de una superficie, haciéndolo más visible. Algunas técnicas de sombreado incluyen:

La teoría de la transferencia (transporte) de la luz

El transporte describe cómo la iluminación en una escena viaja de un lugar a otro. La visibilidad es el componente principal del transporte ligero.

Proyección

Los objetos 3D sombreados deben aplanarse para que el dispositivo de visualización, es decir, el monitor, solo pueda mostrarlos en dos dimensiones, un proceso llamado proyección 3D. Esto se hace usando proyección y, para la mayoría de las aplicaciones, proyección en perspectiva. La idea básica detrás de la proyección en perspectiva es que los objetos más lejanos se hacen más pequeños en comparación con los objetos más cercanos al ojo. Los programas producen perspectiva multiplicando la constante de expansión elevada a la potencia de la distancia negativa del observador. Una constante de expansión de uno significa que no hay perspectiva. Las constantes de expansión elevadas pueden causar un efecto de ojo de pez, donde comienza a producirse una distorsión de la imagen. La proyección ortográfica se usa principalmente en aplicaciones CAD o CAM donde el modelado científico requiere mediciones precisas y preservación de la tercera dimensión.

Notas

  1. Badler, Norman I Serie de conferencias de modelado de objetos 3D ( PDF ). Universidad de Carolina del Norte en Chapel Hill . Consultado el 28 de abril de 2020. Archivado desde el original el 22 de diciembre de 2018.
  2. Representación no fotorrealista . Universidad de Duke . Consultado el 23 de julio de 2018. Archivado desde el original el 26 de abril de 2021.
  3. ↑ ¿La ciencia del renderizado   3D ? . El Instituto de Arqueología Digital . Fecha de acceso: 19 de enero de 2019. Archivado desde el original el 19 de enero de 2019.
  4. Christensen, Por H.; Jarosz, Wojciech El camino hacia las películas trazadas ( PDF ). Consultado el 11 de junio de 2021. Archivado desde el original el 11 de junio de 2021.
  5. Fundamentos de renderización: funciones de reflectancia ( PDF ). Universidad Estatal de Ohio . Consultado el 28 de abril de 2020. Archivado desde el original el 11 de julio de 2019.
  6. La palabra "shader" se usa a veces para programas que describen variaciones geométricas locales.
  7. Mapeo de relieve . web.cs.wpi.edu . Consultado el 23 de julio de 2018. Archivado desde el original el 19 de julio de 2018.