Fotografía computacional

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 14 de enero de 2022; las comprobaciones requieren 2 ediciones .

La fotografía computacional se refiere a las técnicas de captura y procesamiento de imágenes digitales que utilizan cálculos digitales en lugar de procesos ópticos. La fotografía computacional puede mejorar las capacidades de una cámara, o introducir funciones que no eran posibles con la película, o reducir el costo o el tamaño de los elementos de la cámara. Ejemplos de fotografía computacional: costura panorámica digital , [6] fotografía HDR y la cámara plenoptic . Las cámaras plenópticas utilizan nuevos elementos ópticos para capturar información en 3D sobre una escena, que luego se puede utilizar para adquirir imágenes en 3D, aumentar la profundidad de campo y desenfocar selectivamente (o "post-enfoque"). La mayor profundidad de campo reduce la necesidad de sistemas de enfoque mecánico . Todas estas funciones utilizan técnicas de visualización por computadora.

La definición de fotografía por computadora ha evolucionado para cubrir una serie de áreas temáticas en gráficos por computadora , visión por computadora y óptica aplicada . Estas áreas se enumeran a continuación, organizadas de acuerdo con la taxonomía propuesta por Sri K. Nayyar. Se da una lista de técnicas en cada área, y se dan uno o dos artículos o libros típicos para cada técnica. Se omiten intencionalmente de la taxonomía las técnicas de procesamiento de imágenes (ver también imágenes digitales ) aplicadas a las imágenes capturadas tradicionalmente para producir mejores imágenes. Ejemplos de tales técnicas son el escalado de imágenes , la compresión de rango dinámico (es decir, el mapeo de tonos), la gestión del color , la finalización de imágenes (llamada pintura o relleno de agujeros), la compresión de imágenes , las marcas de agua digitales y los efectos artísticos de imágenes. También se omiten los métodos que crean datos de rango, datos volumétricos , modelos 3D, campos de luz 4D , BRDF 4D, 6D u 8D u otras representaciones a partir de una imagen multidimensional. Epsilon Photography es un subconjunto de la fotografía por computadora.

Influencia en la fotografía

Las fotografías tomadas con fotografía computacional pueden permitir a los aficionados crear fotografías comparables a la calidad del equipo fotográfico profesional, pero actualmente (2019) no superan al equipo de nivel profesional. [7]

Resaltado computacional

Se trata de controlar la iluminación en una foto de forma estructurada y luego procesar las imágenes capturadas para crear nuevas imágenes. Las aplicaciones incluyen reiluminación de imágenes, mejora de imágenes, desenfoque de imágenes, restauración de geometría/material, etc.

Las imágenes de alto rango dinámico utilizan diferentes imágenes de la misma escena para expandir el rango dinámico. [8] Otros ejemplos incluyen el procesamiento y la combinación de imágenes con diferente iluminación del mismo objeto ("espacio de luz").

Óptica computacional

Esta es la captura de imágenes codificadas ópticamente, seguida de una decodificación computacional para obtener nuevas imágenes. Las imágenes de apertura codificada se han utilizado principalmente en astronomía o radiografía para mejorar la calidad de la imagen. En lugar de un solo agujero de alfiler en la imagen, se aplica un patrón de agujero de alfiler y se realiza una deconvolución para reconstruir la imagen . [9] En una imagen codificada por exposición, el estado de encendido/apagado del obturador se codifica para cambiar el kernel de desenfoque de movimiento . [10] Por lo tanto, el desenfoque de movimiento se convierte en un problema bien establecido . De manera similar, en una apertura codificada basada en lentes, la apertura se puede cambiar insertando una máscara de banda ancha. [11] Por lo tanto, el desenfoque fuera de foco se convierte en un problema bien establecido . La apertura codificada también puede mejorar la calidad de la adquisición del campo de luz utilizando la óptica de transformación de Hadamard.

Los patrones de apertura codificados también se pueden diseñar utilizando filtros de color para aplicar diferentes códigos en diferentes longitudes de onda. [12] [13] Esto permite que llegue más luz al sensor de la cámara que las máscaras binarias.

Procesamiento computacional

Es el procesamiento de imágenes no codificadas ópticamente para crear nuevas imágenes.

Sensores informáticos

Estos son detectores que combinan reconocimiento y procesamiento, generalmente en hardware, como un sensor de imagen binaria .

Primeros trabajos en visión artificial

Aunque la fotografía por computadora ahora es una frase reconocible en los gráficos por computadora, muchas de sus técnicas aparecieron por primera vez en la literatura de visión por computadora, ya sea con otros nombres o en artículos destinados a analizar la forma de los objetos en estudio en 3D.

La fotografía computacional como forma de arte

La fotografía computacional generalmente utiliza la captura de una imagen del mismo objeto (posiblemente con diferentes parámetros) y luego los combina en función de varios algoritmos en un solo resultado. Esta fue la inspiración para el desarrollo de computadoras portátiles en la década de 1970 y principios de la de 1980. La fotografía computacional se inspiró en el trabajo de Charles Wyckoff y, por lo tanto, los conjuntos de datos de fotografía computacional (por ejemplo, imágenes del mismo sujeto expuestas de manera diferente tomadas para crear una sola imagen compuesta) a veces se denominan conjuntos de Wyckoff.

Los primeros trabajos en esta área (evaluación conjunta de proyección y exposición de imágenes) fueron realizados por Mann y Candoccia.

Charles Wyckoff dedicó la mayor parte de su vida a crear tipos especiales de películas fotográficas de 3 capas que capturaban diferentes exposiciones del mismo sujeto. Una película de Wyckoff de una explosión nuclear apareció en la portada de la revista Life y mostró el rango dinámico desde las regiones exteriores oscuras hasta el núcleo interior.

Véase también

Enlaces

  1. Steve Mann . "Composición de varias imágenes de la misma escena", Actas de la 46.ª Conferencia anual de ciencia y tecnología de imágenes, del 9 al 14 de mayo, Cambridge, Massachusetts, 1993
  2. S. Mann, C. Manders y J. Fung, " La ecuación de restricción de cambio de espacio de luz (LCCE) con aplicación práctica a la estimación de la transformación de proyectividad+ganancia entre varias imágenes del mismo tema Archivado el 24 de agosto de 2021 en Wayback Machine " Conferencia internacional IEEE sobre acústica, voz y procesamiento de señales, 6 al 10 de abril de 2003, págs. III - 481-4 vol.3.
  3. estimación conjunta de parámetros tanto en el dominio como en el rango de funciones en la misma órbita del grupo proyectivo de Wyckoff " ", Conferencia internacional IEEE sobre procesamiento de imágenes, Vol. 3, 16-19, pp. 193-196, septiembre de 1996
  4. Frank M. Candocia: Registro conjunto de imágenes en dominio y rango mediante análisis comparamétrico lineal por partes. Archivado el 26 de agosto de 2021 en Wayback Machine . Transacciones IEEE sobre procesamiento de imágenes 12(4): 409-419 (2003)
  5. Frank M. Candocia: Alineación homográfica y comparamétrica simultánea de múltiples imágenes ajustadas por exposición de la misma escena . Archivado el 8 de marzo de 2019 en Wayback Machine . Transacciones IEEE sobre procesamiento de imágenes 12(12): 1485-1494 (2003)
  6. Steve Mann y RW Picard. " Fuelle virtual: construcción de imágenes fijas de alta calidad a partir de video ". Actas de la Primera Conferencia Internacional IEEE sobre Procesamiento de ImágenesAustin, Texas, 13 al 16 de noviembre de 1994
  7. El borde de la fotografía computacional . Consultado el 23 de mayo de 2020. Archivado desde el original el 15 de marzo de 2020.
  8. SOBRE SER 'NO DIGITAL' CON CÁMARAS DIGITALES: EXTENSIÓN DEL RANGO DINÁMICO COMBINANDO IMÁGENES EXPUESTAS DIFERENTEMENTE, IS&T's (Society for Imaging Science and Technology's) 48a conferencia anual, Cambridge, Massachusetts, mayo de 1995, páginas 422-428 . Consultado el 23 de mayo de 2020. Archivado desde el original el 8 de marzo de 2021.
  9. Martinello. Imágenes de apertura codificada . Consultado el 23 de mayo de 2020. Archivado desde el original el 20 de marzo de 2022.
  10. Raskar. Fotografía de exposición codificada: desenfoque de movimiento con obturador agitado . Consultado el 29 de noviembre de 2010. Archivado desde el original el 31 de mayo de 2020.
  11. Veeraraghavan. Fotografía moteada: máscara de cámaras mejoradas para campos de luz heterodinados y reenfoque de apertura codificada . Consultado el 29 de noviembre de 2010. Archivado desde el original el 31 de mayo de 2020.
  12. Martinello, Manuel (2015). “Fotografía de doble apertura: imagen y profundidad desde una cámara móvil” (PDF) . Congreso Internacional de Fotografía Computacional . Archivado (PDF) desde el original el 2022-03-20 . Consultado el 23-05-2020 . Parámetro obsoleto utilizado |deadlink=( ayuda )
  13. Chakrabarti, A. (2012). "Profundidad y desenfoque de una profundidad de campo variable espectralmente" . Conferencia Europea IEEE sobre Visión por Computador . 7576 : 648-666. Archivado desde el original el 26 de agosto de 2021 . Consultado el 23-05-2020 . Parámetro obsoleto utilizado |deadlink=( ayuda )

Enlaces externos