La deconvolución ciega es un método de restauración de una imagen sin información a priori sobre la función de desenfoque de puntos del sistema óptico , que introduce ruido, distorsión, etc. en la señal útil registrada.
Los métodos clásicos de restauración de imágenes remontan su historia a los años 60 del siglo XX, cuando se agudiza el problema de la exploración espacial, nuevo para aquellos tiempos. Alrededor de mediados de la década de 1970, aparecieron los primeros algoritmos que aplicaban directamente las ideas de deconvolución ciega en un intento de evaluar los patrones conocidos de desenfoque en las imágenes. Luego siguió un pequeño pero decidido estallido de trabajo a finales de los 80 y, finalmente, se produjo un renacimiento completo del interés científico en los 90, cuando este campo fue desarrollado intensamente por las comunidades de físicos ópticos, astrónomos y especialistas en procesamiento de imágenes . Las ideas que surgieron como resultado de sus esfuerzos se basan en los métodos del álgebra lineal , el análisis numérico y la teoría de la estimación estadística [1] .
Actualmente, los algoritmos basados en deconvolución ciega se utilizan en una serie de disciplinas aplicadas y técnicas, como, por ejemplo: observaciones astronómicas , teledetección , microscopía , óptica biomédica, superresolución y problemas de seguimiento de objetivos en movimiento [2] .
Hay dos factores principales que afectan negativamente a la calidad de la imagen resultante durante su formación en los sensores del dispositivo de grabación. El primero es el manchado de la imagen (o de sus fragmentos), que se manifiesta como una pérdida de claridad. Puede ocurrir debido a la imperfección del sistema óptico, al enfoque incorrecto de la señal entrante o al desplazamiento mutuo de la cámara con respecto al sujeto. Además, las propiedades turbulentas del canal atmosférico a través del cual se propaga la señal pueden provocar un efecto similar. En algunos tipos de equipos de registro de alta resolución (telescopios, microscopios, etc.), este fenómeno está presente al nivel del límite de difracción . Desde un punto de vista matemático, la borrosidad a menudo se considera como resultado del filtrado de baja frecuencia de la matriz de datos original [3] .
El segundo factor significativo es la inevitable presencia de varios tipos de ruido que se superponen a la componente útil de la señal en el proceso de cuantificación y registro de la información. Los motivos de la aparición de distorsiones de ruido pueden ser muy diversos: fluctuaciones aleatorias en el número de fotones en los puntos de su registro, ruido térmico de los sensores, ruido granular al utilizar una fuente de luz láser, distorsiones durante la digitalización de la señal, etc. [4] ]
En el ejemplo clásico de un sistema lineal, el modelo matemático de distorsión de la señal útil entrante suele ser el siguiente [5] :
,
dónde:
es una variable vectorial de coordenadas espaciales, - función de desenfoque de punto, es un proceso de ruido aditivo, - la señal observada, que es el resultado de la imposición de ruido y distorsión.Bajo estos supuestos, el objetivo final es construir una estimación adecuada para las funciones y con base en la forma de la señal registrada . Al mismo tiempo, en la mayoría de los problemas aplicados, el papel del componente de ruido suele ser el ruido blanco gaussiano , que no está correlacionado con la señal en estudio. A menudo, para representar este problema, se utiliza una notación matricial [5] .
En términos generales, la deconvolución ciega es un problema mal condicionado , la dependencia de su solución en los parámetros de entrada de la ecuación no necesariamente tiene que tener la propiedad de continuidad , la solución encontrada puede no ser única y no necesariamente tiene que existir [5 ] . Se imponen dificultades adicionales al utilizar herramientas del campo del análisis de Fourier y al buscar una solución al problema inverso en el plano espectral, ya que, a pesar de que los conjuntos de funciones positivas y finitas tienen la propiedad de convexidad , el conjunto de Fourier las imágenes del producto de funciones no son convexas [6] .
Hay dos enfoques diferentes para restaurar la estructura original de una imagen distorsionada que, a su vez, han dado lugar a dos clases de métodos prácticos para encontrar una solución. El primero está relacionado con la estimación a priori de la función de desenfoque de puntos , el segundo está relacionado con la construcción conjunta de estimaciones para la función de desenfoque de puntos y para la función deseada [7] .
El primer grupo de métodos utiliza la construcción de una función de desenfoque de puntos basada en información sobre las propiedades de dispersión del sistema de transmisión, que está disponible a priori (experimentalmente o en base a algún tipo de consideraciones generales). En el futuro, la estimación obtenida para puede parametrizarse y usarse junto con algoritmos clásicos de restauración de imágenes basados en el teorema de Bayes y el método de máxima verosimilitud [7] .
En el segundo enfoque, se realiza una estimación conjunta de la función de desenfoque puntual y la imagen deseada, donde se combina información a priori sobre las propiedades de la imagen y el canal de transmisión en forma de modelos, cuyos parámetros se estiman a partir de los datos disponibles. Luego, estos modelos se utilizan en esquemas de cálculo, que a menudo se construyen individualmente para y [8] .
En el marco de ambos enfoques, los procedimientos iterativos son muy utilizados, cuando, por ejemplo, primero se calcula la función de desenfoque de puntos, luego se mejora la estimación de la imagen utilizando la información obtenida , luego se regulariza la solución (poner a cero los valores negativos en el plano espacial, etc.), se corrige la función según los datos obtenidos desdibujando el punto, en base a ello se calcula una nueva estimación de la función , se estabiliza de nuevo, etc. hasta que, tras un número finito de iteraciones, se obtiene no es posible acercarse a una solución satisfactoria. Sin embargo, los criterios para la convergencia fiable de dichos esquemas siguen siendo un problema urgente y muy agudo al que se enfrenta la comunidad científica [6] [9] .