Los sistemas de autenticación biométrica multimodal son una forma de mejorar la precisión del reconocimiento en biometría . La idea principal es combinar varios métodos de autenticación unimodal para reducir los errores.
La biometría es una de las formas de reconocer a las personas por sus características físicas o de comportamiento [1] . Esta área ha encontrado su aplicación en sistemas de autenticación y búsqueda de personas (por ejemplo, un delincuente por huellas dactilares). En este artículo, solo se considerará la primera área de uso. La ventaja de este enfoque sobre las claves y contraseñas clásicas es que estas funciones no se pueden perder ni olvidar. Y también son bastante difíciles de falsificar.
Hay dos tipos de sistemas de autenticación biométrica : unimodales, aquellos que usan solo una característica de una persona, y multimodales, que usan una combinación de unimodales. Varios estudios [2] [3] han demostrado que el uso de métodos de autenticación multimodal puede aumentar la precisión de los sistemas de autenticación biométrica [4] [5] [6] .
La tarea de autenticación multimodal consta de varias etapas:
Así, se obtiene un resultado que tiene la misma apariencia que si se realizara la autenticación unimodal. Al mismo tiempo, contiene información de todos los componentes del modelo multimodal.
La primera etapa no es difícil de implementar, ya que la autenticación para sistemas individuales se puede realizar simultáneamente. Por ejemplo, puede pedirle al usuario que fije su dedo en el escáner de huellas dactilares y escanee la retina del ojo simultáneamente. Los pasos adicionales se realizan dentro del sistema general.
Este enfoque puede aumentar significativamente el nivel de seguridad de los sistemas de autenticación [7] . Ya no utiliza una característica de una persona, sino varias, lo que complica la tarea de falsificar datos biométricos. También es significativo que dichos sistemas no solo identifiquen a los intrusos con mayor precisión, sino que también tengan un menor número de fallas para los usuarios registrados (es decir, una tasa de verdaderos positivos más alta). Esta cualidad permite mejorar significativamente la calidad de las soluciones en el campo de la autenticación.
La necesidad de esta parte se debe al hecho de que durante la fusión, generalmente ocurre la suma (a menudo con pesos) de los resultados del trabajo de los métodos de autenticación unimodal. Son números que normalizados a la escala [0,1] se interpretan como la probabilidad de que el usuario tenga el acceso que solicitó. Por lo tanto, es necesario estandarizarlos antes de fusionarlos para realizar de manera efectiva el procedimiento de fusión [8] .
Este método le permite mostrar estimaciones sin procesar en el intervalo . En este caso, la transformación conserva la forma de la distribución original. y son valores límite para el modelo , deben ser suministrados por el proveedor del sistema unimodal correspondiente. La fórmula se parece a:
, .
Este método da como resultado una distribución con una media de cero y una desviación estándar de uno. Si se conocen los valores de la distribución original, entonces este método se puede utilizar sin ningún problema. Sin embargo, si esta información no está disponible, podemos calcularlos usando la muestra de entrenamiento que usamos para entrenar nuestro modelo. Esta solución puede no ser óptima si hay valores atípicos en la muestra, ya que se obtiene una estimación sesgada [8] . El método se describe mediante la siguiente expresión:
, donde , .
Este método se conoce como los llamados métodos estadísticos fiables [9] [10] . A diferencia del enfoque descrito anteriormente, es resistente a valores atípicos y colas de distribución grandes, lo que lo convierte en una herramienta de normalización más sólida y confiable. La fórmula se parece a:
Los errores de autenticación se deben al hecho de que las distribuciones verdadera e impostor se superponen [12] . Esta zona de superposición está descrita por dos características: centro y ancho . La idea principal de este enfoque de normalización es aumentar las diferencias entre estas dos distribuciones al reducir esta superposición, lo que reducirá la probabilidad de errores.
Vista general de todos los métodos de normalización adaptativa:
, donde es el resultado de la normalización por el método Min-Max, y la función de mapeo.
Hay varios tipos de funciones de mapeo para la normalización adaptativa, que se describirán a continuación.
Representa una función cuya segunda derivada cambia de signo en el punto .
La forma de la gráfica de la función es similar a la gráfica de la función Two-Quadrics.
, donde , En las expresiones para y , el símbolo denota una constante, que suele elegirse por un número pequeño (a menudo el valor 0,01). En este caso, es fácil ver que .
Quadric-Line-Quadric [14]En este caso, la zona de superposición permanece sin cambios (en el gráfico, esto se puede ver desde la sección lineal en el centro). Más allá de eso, se utiliza la función de mapeo Two-Quadrics.
Después de que los resultados de los algoritmos de autenticación individuales hayan pasado por el proceso de normalización, es necesario combinarlos [15] . Para hacer esto, hay varias formas de fusionarse. Los tres primeros de los enumerados a continuación son clásicos. Los dos últimos son más complejos porque utilizan la lógica de que algunos métodos de autenticación son más importantes y otros menos importantes.
Introduzcamos la notación para más definiciones. Sea la salida normalizada del método ( ) para el usuario ( ). En este caso, es el número de métodos unimodales utilizados en el multimodal, y es el número de usuarios en la base de datos.
Suma simple para el usuario de los resultados normalizados de todos los autenticadores.
Selecciona el mínimo entre todos los resultados del autenticador normalizados para el usuario dado.
Selecciona el máximo entre todos los resultados del autenticador normalizados para el usuario dado.
Este método de fusión se basa en la Equal Error Rate [19] (EER). Esta función de error hace una estimación de la curva ROC . Denotemos el EER para el método como . Entonces el peso para el método será .
Además, está claro a partir de la fórmula que ≤ ≤ es cierto para todo , y también que . Otro punto importante es que cuanto mayor sea el valor del error , menor será el coeficiente de ponderación correspondiente . Por lo tanto, los métodos más precisos contribuirán más a la puntuación final.
La fórmula final se parece a:
Este método se diferencia del anterior en que ponderamos los métodos para cada usuario individualmente. Inicialmente, esta forma de fusión era más compleja en términos de cálculos [20] . Posteriormente, sobre esta base, se propuso un esquema que reduce el número de operaciones, que se describirá en esta sección.
Denotemos el peso del método para el usuario como .
Considere con más detalle cómo calcular el peso deseado . Este método de fusión se basa en el concepto de lobo-oveja [21] . Designemos como ovejas a los usuarios cuyos datos pueden falsificarse fácilmente. Por el contrario, denotamos por lobos a los usuarios que imitan fácilmente a otros clientes. Tanto los lobos como las ovejas reducen la eficacia del proceso de autenticación, ya que ambos grupos generan falsos positivos.
Para utilizar este enfoque para el caso multimodal, es necesario introducir una métrica de cordura para cada par de . Muestra cómo el usuario es una oveja dentro del método Se calcula asumiendo que se conocen los parámetros de media y desviación estándar para la distribución verdadera y la distribución del impostor. Para obtener la cordness, se calcula la métrica d-prime [22] , que muestra cuán distinguibles son las dos distribuciones (en nuestro caso, verdadera y falsa). Para el par usuario-método, denotemos la media y la desviación estándar de la distribución genuina como , para la falsa, respectivamente. En este caso, los índices gen e imp representan genuino e impostor, respectivamente. .
Al mismo tiempo, es fácil ver que cuanto menor es el valor de , más el usuario es una oveja para algunos lobos. Esto se debe a que en este caso existe una fuerte superposición de distribuciones.
Y finalmente, todo está listo para calcular los pesos para el usuario :
.
La fórmula de fusión con los pesos resultantes es:
En el curso de los estudios [23] [24] de los sistemas de autenticación multimodal, se demostró que el uso de una combinación de varios métodos es superior en calidad a los sistemas unimodales. Además, el aumento se logra incluso cuando se combina con los mejores sistemas unimodales. En algunos casos, esto puede ayudar a reducir el costo de la arquitectura resultante mediante el uso de técnicas simples.
También se ha demostrado [18] que en aplicaciones donde hay una afluencia constante de personas nuevas (por ejemplo, aeropuertos), la combinación más adecuada es la normalización Min-Max y la fusión Simple Sum. Si el trabajo se lleva a cabo con un círculo limitado de personas (por ejemplo, un laboratorio o una oficina), entonces la mejor combinación es la normalización adaptativa Quadric-Line-Quadric y la fusión de ponderación de usuarios. La razón principal de la diferencia en los resultados de los dos casos es que al trabajar con los mismos usuarios, hay una repetición constante de la captura de datos biométricos, lo que permite recopilarlos y acumularlos en algoritmos. También se obtuvieron resultados similares en otros estudios [25] [26] . Los casos descritos son exhaustivos y describen todos los posibles casos de uso de los sistemas de autenticación.
Al resolver problemas aplicados, vale la pena probar varias combinaciones de métodos para crear sistemas multimodales. Esto se debe a que debido a las diferencias en los métodos unimodales que se utilizan, qué hardware realiza la autenticación y cómo se recolectaron los datos para entrenar un sistema multimodal, los resultados pueden ser muy diferentes a los presentados en varios estudios. Sin embargo, como solución básica, en primer lugar vale la pena probar exactamente las descritas anteriormente.