La fotografía computacional se refiere a las técnicas de captura y procesamiento de imágenes digitales que utilizan cálculos digitales en lugar de procesos ópticos. La fotografía computacional puede mejorar las capacidades de una cámara, o introducir funciones que no eran posibles con la película, o reducir el costo o el tamaño de los elementos de la cámara. Ejemplos de fotografía computacional: costura panorámica digital , [6] fotografía HDR y la cámara plenoptic . Las cámaras plenópticas utilizan nuevos elementos ópticos para capturar información en 3D sobre una escena, que luego se puede utilizar para adquirir imágenes en 3D, aumentar la profundidad de campo y desenfocar selectivamente (o "post-enfoque"). La mayor profundidad de campo reduce la necesidad de sistemas de enfoque mecánico . Todas estas funciones utilizan técnicas de visualización por computadora.
La definición de fotografía por computadora ha evolucionado para cubrir una serie de áreas temáticas en gráficos por computadora , visión por computadora y óptica aplicada . Estas áreas se enumeran a continuación, organizadas de acuerdo con la taxonomía propuesta por Sri K. Nayyar. Se da una lista de técnicas en cada área, y se dan uno o dos artículos o libros típicos para cada técnica. Se omiten intencionalmente de la taxonomía las técnicas de procesamiento de imágenes (ver también imágenes digitales ) aplicadas a las imágenes capturadas tradicionalmente para producir mejores imágenes. Ejemplos de tales técnicas son el escalado de imágenes , la compresión de rango dinámico (es decir, el mapeo de tonos), la gestión del color , la finalización de imágenes (llamada pintura o relleno de agujeros), la compresión de imágenes , las marcas de agua digitales y los efectos artísticos de imágenes. También se omiten los métodos que crean datos de rango, datos volumétricos , modelos 3D, campos de luz 4D , BRDF 4D, 6D u 8D u otras representaciones a partir de una imagen multidimensional. Epsilon Photography es un subconjunto de la fotografía por computadora.
Las fotografías tomadas con fotografía computacional pueden permitir a los aficionados crear fotografías comparables a la calidad del equipo fotográfico profesional, pero actualmente (2019) no superan al equipo de nivel profesional. [7]
Se trata de controlar la iluminación en una foto de forma estructurada y luego procesar las imágenes capturadas para crear nuevas imágenes. Las aplicaciones incluyen reiluminación de imágenes, mejora de imágenes, desenfoque de imágenes, restauración de geometría/material, etc.
Las imágenes de alto rango dinámico utilizan diferentes imágenes de la misma escena para expandir el rango dinámico. [8] Otros ejemplos incluyen el procesamiento y la combinación de imágenes con diferente iluminación del mismo objeto ("espacio de luz").
Esta es la captura de imágenes codificadas ópticamente, seguida de una decodificación computacional para obtener nuevas imágenes. Las imágenes de apertura codificada se han utilizado principalmente en astronomía o radiografía para mejorar la calidad de la imagen. En lugar de un solo agujero de alfiler en la imagen, se aplica un patrón de agujero de alfiler y se realiza una deconvolución para reconstruir la imagen . [9] En una imagen codificada por exposición, el estado de encendido/apagado del obturador se codifica para cambiar el kernel de desenfoque de movimiento . [10] Por lo tanto, el desenfoque de movimiento se convierte en un problema bien establecido . De manera similar, en una apertura codificada basada en lentes, la apertura se puede cambiar insertando una máscara de banda ancha. [11] Por lo tanto, el desenfoque fuera de foco se convierte en un problema bien establecido . La apertura codificada también puede mejorar la calidad de la adquisición del campo de luz utilizando la óptica de transformación de Hadamard.
Los patrones de apertura codificados también se pueden diseñar utilizando filtros de color para aplicar diferentes códigos en diferentes longitudes de onda. [12] [13] Esto permite que llegue más luz al sensor de la cámara que las máscaras binarias.
Es el procesamiento de imágenes no codificadas ópticamente para crear nuevas imágenes.
Estos son detectores que combinan reconocimiento y procesamiento, generalmente en hardware, como un sensor de imagen binaria .
Aunque la fotografía por computadora ahora es una frase reconocible en los gráficos por computadora, muchas de sus técnicas aparecieron por primera vez en la literatura de visión por computadora, ya sea con otros nombres o en artículos destinados a analizar la forma de los objetos en estudio en 3D.
La fotografía computacional generalmente utiliza la captura de una imagen del mismo objeto (posiblemente con diferentes parámetros) y luego los combina en función de varios algoritmos en un solo resultado. Esta fue la inspiración para el desarrollo de computadoras portátiles en la década de 1970 y principios de la de 1980. La fotografía computacional se inspiró en el trabajo de Charles Wyckoff y, por lo tanto, los conjuntos de datos de fotografía computacional (por ejemplo, imágenes del mismo sujeto expuestas de manera diferente tomadas para crear una sola imagen compuesta) a veces se denominan conjuntos de Wyckoff.
Los primeros trabajos en esta área (evaluación conjunta de proyección y exposición de imágenes) fueron realizados por Mann y Candoccia.
Charles Wyckoff dedicó la mayor parte de su vida a crear tipos especiales de películas fotográficas de 3 capas que capturaban diferentes exposiciones del mismo sujeto. Una película de Wyckoff de una explosión nuclear apareció en la portada de la revista Life y mostró el rango dinámico desde las regiones exteriores oscuras hasta el núcleo interior.