Programación bayesiana

La programación bayesiana  es un sistema formal y una metodología para definir modelos probabilísticos y resolver problemas cuando no se dispone de toda la información necesaria.

Edwin Thompson Jaynes propuso considerar la probabilidad como una alternativa y extensión de la lógica para el razonamiento racional con información incompleta e incierta. En su libro seminal The Theory of Probability: The Logic of Science [1] , desarrolló esta teoría y propuso lo que llamó un "robot", que no era un dispositivo físico, sino una máquina de inferencia que automatiza el razonamiento probabilístico, algo así como un Prólogo de una teoría de probabilidades en lugar de lógica. La programación bayesiana [2] es una implementación formal y concreta de este "robot".

La programación bayesiana también se puede considerar como un sistema algebraico formal para especificar modelos gráficos , como, por ejemplo, redes bayesianas , redes bayesianas dinámicas filtros de Kalman o modelos ocultos de Markov . De hecho, la programación bayesiana generaliza las redes bayesianas y tiene un poder expresivo equivalente a los gráficos de factores .

Sistema formal

El programa bayesiano es un medio para especificar una familia de distribuciones de probabilidad.

Los siguientes son los componentes básicos de un programa bayesiano:

  1. El programa se construye a partir de una descripción ( English  description ) y una pregunta ( English  question ).
  2. La descripción se construye usando alguna definición ( , ing. especificación ) dada por el programador, e identificación ( ing. identificación ) o un proceso de aprendizaje para parámetros que no están completamente descritos en la definición, usando un conjunto de datos ( ).  
  3. La definición se construye a partir de un conjunto de variables significativas ( English  variables ), descomposición ( English  decomposition ) y un conjunto de formas ( English  forms ).
  4. Las formas son formas paramétricas o preguntas a otros programas bayesianos.
  5. La pregunta especifica la distribución de probabilidad a calcular.

Descripción

La descripción especifica un método eficiente para calcular la distribución de probabilidad conjunta de un conjunto de variables para un conjunto dado de datos experimentales y alguna definición de . Esta distribución conjunta se denota como .

Para especificar conocimientos previos , el programador debe hacer lo siguiente:

  1. Determinar el conjunto de variables significativas sobre las que se da la distribución de probabilidad conjunta.
  2. Descomponer la distribución conjunta (descomponerla en probabilidades independientes o condicionales adecuadas ).
  3. Determine la forma de cada una de estas distribuciones (por ejemplo, para cada variable, elija una de la lista de distribuciones de probabilidad ).
Descomposición

Deje que el conjunto contenga subconjuntos, las variables se definen como , cada una de las cuales corresponde a uno de estos subconjuntos. Cada variable se obtiene como una conjunción de variables pertenecientes al -ésimo subconjunto. Una aplicación recursiva del teorema de Bayes conduce a

La aplicación de la hipótesis de la independencia condicional nos permite hacer más simplificaciones. La hipótesis de independencia condicional para una variable se define por la elección de alguna variable entre las variables presentes en la conjunción . Denotando por la conjunción de las variables elegidas y tomando

Obtenemos

Esta simplificación de una distribución conjunta como producto de distribuciones más simples se llama descomposición de la regla de la cadena

Esto asegura que cada variable aparezca a la izquierda de la línea condicional al menos una vez, lo cual es una condición necesaria y suficiente para escribir cálculos matemáticamente correctos. .

Formularios

Cada distribución que ocurre en el producto se asocia luego con una forma paramétrica (es decir, una función ) o con una pregunta a otro programa baysiano .

Cuando es la forma , es en general un vector de parámetros que pueden depender de , o , o de ambos. Cuando algunos de estos parámetros se calculan utilizando el conjunto de datos , se produce el entrenamiento.

Una característica importante de la programación bayesiana es la capacidad de utilizar preguntas a otros programas bayesianos como parte de la definición de un nuevo programa bayesiano. se obtiene mediante la salida producida por otro programa bayesiano dada la definición y los datos . Esto es similar a llamar a una subrutina en la programación clásica y proporciona una manera fácil de construir modelos jerárquicos .

Pregunta

Deje que se dé una descripción (es decir ), la pregunta se obtiene dividiéndola en tres conjuntos: las variables investigadas (inglés buscadas ) , variables conocidas (inglés conocidas ) y variables libres (inglés libres ) .    

Las tres variables , y se definen como la conjunción de las variables pertenecientes a estos conjuntos.

Una pregunta se define como un conjunto de distribuciones

compuesto de "preguntas específicas" como un cardenal , donde cada pregunta instanciada es una distribución

Conclusión

Para una distribución conjunta dada , siempre es posible calcular cualquier pregunta aplicando la siguiente derivación general:

donde la primera igualdad se deriva de la regla de marginación  , la segunda se deriva del teorema de Bayes y la tercera corresponde a la segunda aplicación de la marginación. El denominador resulta ser un término de normalización y puede ser reemplazado por una constante .  

Teóricamente, esto te permite resolver cualquier problema de inferencia bayesiana. Sin embargo, en la práctica, en casi todos los casos, el coste de un cálculo exhaustivo y preciso resulta demasiado elevado.

Sustituyendo la distribución conjunta por su descomposición, obtenemos

que suele ser una expresión mucho más sencilla de calcular, ya que la dimensión del problema se reduce significativamente por la descomposición en el producto de distribuciones de menor dimensión.

Ejemplo

Detección de spam bayesiano

El objetivo del filtrado de spam bayesiano es eliminar los correos electrónicos no deseados.

La formulación de este problema es bastante simple. Los correos electrónicos deben clasificarse en una de dos categorías: no spam y spam. La única información disponible para clasificar los correos electrónicos es su contenido: el conjunto de palabras. El uso de palabras sin tener en cuenta su orden en una oración a menudo se conoce como el modelo de la bolsa de palabras .

Además, el clasificador debe ser capaz de adaptarse a su usuario y aprender de la experiencia. Partiendo de la configuración inicial estándar, el clasificador debe cambiar sus parámetros internos si el usuario no está de acuerdo con su decisión. Por tanto, se adaptará al criterio del usuario para distinguir entre no spam y spam. Mejorará sus propios resultados a medida que encuentre más y más correos electrónicos clasificados.

Variables

Las siguientes variables son necesarias para escribir este programa:

  1. : variable binaria, falso si el correo electrónico no es spam, verdadero en caso contrario.
  2. : variables binarias. es verdadero si la -ésima palabra del diccionario está presente en el texto.

Estas variables binarias resumen toda la información sobre el correo electrónico.

Descomposición

Partiendo de la definición de la distribución conjunta y aplicando recursivamente el teorema de Bayes , se obtiene:

Esta es una expresión matemática exacta.

Se puede simplificar radicalmente asumiendo que la probabilidad de que una palabra aparezca en una categoría de texto determinada (spam o no) es independiente de la aparición de otras palabras. Tal suposición es bayesiana ingenua y, por lo tanto, este filtro de spam es un modelo bayesiano ingenuo .

Por ejemplo, un programador podría suponer que

y eventualmente obtener

Esta suposición se conoce como la suposición Naive Bayes . Es "ingenuo" en el sentido de que la independencia entre las palabras obviamente no es cierta. Por ejemplo, ignora por completo el hecho de que la ocurrencia de un par de palabras puede ser más significativa que las ocurrencias aisladas. Sin embargo, el programador puede aceptar esta hipótesis y puede desarrollar este modelo y su salida asociada para probar qué tan confiable y eficiente es.

Formas paramétricas

Para poder calcular la distribución conjunta, el programador ahora debe especificar las distribuciones presentes en la descomposición:

  1. definido a priori, por ejemplo, como
  2. Cada una de las formas se puede especificar utilizando la regla de Laplace (esta es una técnica de suavizado basada en un pseudo contador para superar el problema de la frecuencia cero de palabras hasta ahora invisibles):

donde es el número de ocurrencias de la palabra th en correos electrónicos que no son spam y es el número total de correos electrónicos que no son spam. De manera similar, es el número de ocurrencias de la palabra th en correos electrónicos no deseados y es el número total de correos electrónicos no deseados.

Identificación

los formularios aún no se han definido por completo porque los parámetros , y aún no tienen valores.

La identificación de estos parámetros se puede realizar mediante el procesamiento por lotes de un grupo de correos electrónicos clasificados o mediante la actualización incremental de los parámetros mediante la clasificación de los correos electrónicos por parte del usuario a medida que llegan.

Ambos métodos se pueden combinar: el sistema puede comenzar con valores predeterminados iniciales de estos parámetros dados desde una base de datos generalizada, y luego un aprendizaje incremental ajusta el clasificador para cada usuario individual.

Pregunta

La pregunta que se le hace al programa es: “¿cuál es la probabilidad de que ese texto sea spam, si se sabe qué palabras están presentes en él y cuáles no?”. Se puede formalizar como

que se puede calcular así:

En esta expresión, el denominador resulta ser la constante de normalización . No es necesario calcularlo para saber si estamos ante spam. Por ejemplo, un truco simple para calcular una razón:

Este cálculo es más rápido y conveniente porque solo requiere productos.

Programa bayesiano

El programa de filtro de spam bayesiano se define completamente como

Filtro bayesiano, filtro de Kalman y modelo oculto de Markov

Los filtros bayesianos (a menudo denominados estimación bayesiana recursiva ) son modelos probabilísticos generales para procesos que se desarrollan a lo largo del tiempo. Numerosos modelos son casos especiales de este enfoque general, como el filtro de Kalman o el modelo oculto de Markov .

Variables
  • Variables : una serie de tiempo de variables de estado que se consideran en el horizonte de tiempo en el rango de a .
  • Variables : una serie temporal de variables de observación en el mismo horizonte.
Descomposición

La descomposición se basa en:

  • , denominado modelo de sistema, modelo de transición o modelo dinámico, que formaliza la transición de un estado en un punto en el tiempo a un estado en un punto en el tiempo ;
  • , denominado modelo de observación, que expresa lo que se puede observar en el momento en que el sistema se encuentra en el estado ;
  • estado inicial en el momento : .
Formas paramétricas

La elección de formas paramétricas no está limitada, y diferentes opciones conducen a diferentes modelos bien conocidos: consulte los filtros de Kalman y los modelos ocultos de Markov a continuación.

Pregunta

Una pregunta común para estos modelos es : ¿cuál es la distribución de probabilidad del estado en el tiempo t dadas las observaciones desde el tiempo hasta t ?

El caso más general es el filtrado bayesiano, para el cual , lo que significa que el estado en el momento actual se determina con observaciones previas conocidas.

Sin embargo, también es posible extrapolar el estado futuro utilizando observaciones pasadas, o suavizar para reconstruir el estado pasado a partir de observaciones realizadas antes o después de un cierto punto en el tiempo.

Se pueden hacer preguntas más avanzadas, como se muestra a continuación en la sección HMM.

Los filtros bayesianos tienen una propiedad recursiva muy interesante que contribuye en gran medida a su atractivo. puede calcularse simplemente usando la siguiente fórmula:

Otra forma interesante de ver esta ecuación es considerar la existencia de dos fases: la fase de anticipación y la fase de evaluación:

  • Durante la fase de predicción, se predice el estado utilizando un modelo dinámico y una estimación del estado en el momento anterior:
  • Durante la fase de evaluación, la predicción es confirmada o invalidada por la última observación:
Programa bayesiano Filtro de Kalman

Los conocidos filtros de Kalman [3] son ​​un caso especial de los filtros bayesianos.

Están dados por el siguiente programa bayesiano:

  • Las variables son continuas.
  • Los patrones de transición y observación se definen mediante una distribución gaussiana , en la que las medias son funciones lineales de las variables de condición.

Usando estas hipótesis y una fórmula recursiva, el problema de inferencia para responder una pregunta común se puede resolver analíticamente. Esto da como resultado un algoritmo extremadamente eficiente, lo que explica la popularidad de los filtros Kalman y sus numerosas aplicaciones cotidianas.

Cuando no hay transiciones lineales obvias y modelos de observación, a menudo aún es posible, aplicando una expansión de Taylor de primer orden , considerar que estos modelos son localmente lineales. Esta generalización suele denominarse filtro de Kalman extendido .

Modelo oculto de Markov

Los modelos ocultos de Markov (HMM) son otro caso especial muy popular de filtros de Kalman.

Están dados por el siguiente programa bayesiano:

  • Las variables se consideran discretas.
  • Los modelos de transición y observación se especifican utilizando matrices de probabilidad.
  • La pregunta más frecuente sobre los modelos ocultos de Markov es:

¿Cuál es la secuencia más probable de estados que conducen al estado actual, dadas las observaciones anteriores?

La respuesta a esta pregunta se puede obtener a través de un algoritmo muy eficiente: el algoritmo de Viterbi .

Además, se desarrolló el algoritmo Baum-Welsh para HMM .

Aplicación

Aplicaciones académicas

En los últimos 15 años, la programación bayesiana se ha aplicado en muchas universidades para desarrollar aplicaciones en robótica y modelos en las ciencias de la vida [4] .

Robótica

En robótica, la programación bayesiana se ha aplicado en robótica autónoma [5] [6] [7] [8] [9] , sistemas CAD robóticos [10] , sistemas avanzados de asistencia al conductor [11] , control robótico de manipuladores , robótica móvil [12] [13] , interacción hombre-robot [14] , interacción hombre-vehículo (modelos bayesianos de conductor autónomo) [15] [16] [17] [18] [19] [20 ] , programación y aprendizaje de avatares en videojuegos [21] y juegos de estrategia en tiempo real ( IA ). [22]

Ciencias de la vida

En las ciencias de la vida, la programación bayesiana se ha utilizado en las ciencias de la visión para reconstruir la forma a partir del movimiento [23] , para modelar la interacción visual-vestibular [24] y para estudiar el movimiento ocular sacádico [25] ; en la percepción y control del habla para estudiar la asimilación temprana del habla [26] y el surgimiento de sistemas articular-acústicos [27] ; para modelar la percepción y el control del texto escrito a mano [28] .

Reconocimiento de patrones

La programación bayesiana tiene aplicaciones potenciales en el reconocimiento y la síntesis de voz , el reconocimiento de imágenes y el procesamiento del lenguaje natural . Aquí utiliza los principios de componibilidad (construir representaciones abstractas a partir de partes), causalidad (construir complejos a partir de partes) y aprender a aprender (utilizar conceptos previamente reconocidos para facilitar la creación de nuevos conceptos) [29] .

Programación bayesiana y teoría de la posibilidad

La comparación entre los enfoques probabilísticos (no solo la programación bayesiana) y las teorías de la posibilidad sigue siendo un tema de debate.

Las teorías de la posibilidad como, por ejemplo, los conjuntos borrosos [30] , la lógica borrosa [31] y la propia teoría de la posibilidad [32] ofrecen diversas alternativas para modelar la incertidumbre utilizando la probabilidad. Argumentan que la probabilidad es insuficiente o inconveniente para modelar ciertos aspectos del conocimiento incompleto o incierto.

La defensa del enfoque probabilístico se basa principalmente en el teorema de Cox , que consta de cuatro postulados sobre el razonamiento racional bajo incertidumbre. Muestra que el único modelo matemático que satisface estos postulados es la teoría de la probabilidad. La prueba es que cualquier otro enfoque que no sea la teoría de la probabilidad viola uno de estos postulados.

Programación bayesiana y programación probabilística

El objetivo de la programación probabilística es combinar el ámbito de los lenguajes de programación clásicos con el modelado probabilístico (especialmente las redes bayesianas ) para poder lidiar con la incertidumbre y al mismo tiempo usar el poder expresivo de los lenguajes de programación para describir complejos. modelos

Los lenguajes de programación clásicos extendidos incluyen lenguajes lógicos, como se propone en Probabilistic Horn Abduction [ 33 ] , Independent Choice Logic [34] , PRISM [35] y ProbLog lenguaje Prolog .   

También puede ser una extensión de lenguajes de programación funcional (esencialmente LISP y Scheme ) como IBAL o Church . Los lenguajes subyacentes de la extensión también pueden estar orientados a objetos , como en el caso de BLOG y FACTORIE, o más estándar, como en CES y FIGARO . Archivado el 1 de febrero de 2016 en Wayback Machine .

El propósito de la programación bayesiana es algo diferente. La posición de "probabilidad como lógica" de Jaynes argumenta que la probabilidad es una extensión y una alternativa a la lógica, sobre la cual se puede reconstruir toda la teoría de la racionalidad, los algoritmos y la programación [1] . La programación bayesiana no busca una forma de extender los lenguajes clásicos, busca reemplazarlos con un nuevo enfoque de la programación basada en probabilidades que tenga en cuenta la incompletitud y la incertidumbre.

Una comparación exacta de la semántica y el poder expresivo de la programación bayesiana y probabilística sigue siendo una pregunta abierta.

Véase también

Notas

  1. 1 2 Jaynes, Edwin T. Teoría de la probabilidad: La lógica de  la ciencia . - Prensa de la Universidad de Cambridge , 2003. - ISBN 0-521-59271-2 .
  2. Bessière, P.; Mazer, E.; Ahuactzin, JM.; Mekhnacha, K. Programación  bayesiana . - Chapman & Hall/CRC, 2013. - ISBN 9781439880326 .
  3. Kalman, RE Un nuevo enfoque para los problemas de predicción y filtrado lineal  //  Transacciones de ASME--Journal of Basic Engineering: journal. - 1960. - Vol. 82 . — Pág. 33——45 . -doi : 10.1115/ 1.3662552 .
  4. Bessière, P.; Laugier, C. & Siegwart, R. Razonamiento probabilístico y toma de decisiones en sistemas sensoriomotores  . — Springer, 2008. - ISBN 978-3-540-79007-5 .
  5. Lebeltel, O.; Bessière, P.; Diard, J.; Mazer, E. Programación de robots bayesianos  (inglés)  // Robótica avanzada. - 2004. - vol. 16 , núm. 1 . — Pág. 49——79 . -doi : 10.1023/b : auro.0000008671.38949.43 .
  6. Diard, J.; Gilet, E.; Simonin, E.; Bessière, P. Aprendizaje incremental de modelos sensoriomotores bayesianos: desde comportamientos de bajo nivel hasta estructuras a gran escala del entorno  //  Connection Science: revista. - 2010. - Vol. 22 , núm. 4 . - Pág. 291--312 . -doi : 10.1080/ 09540091003682561 .
  7. Pradalier, C.; Hermosillo, J.; Koike, C.; Braillon, C.; Bessière, P.; Laugier, C. El CyCab: un robot similar a un automóvil que navega de forma autónoma y segura entre peatones  //  Robótica y Sistemas Autónomos: revista. - 2005. - vol. 50 , núm. 1 . — Pág. 51——68 . -doi : 10.1016/ j.robot.2004.10.002 .
  8. Ferreira, J.; Lobo, J.; Bessière, P.; Castelo Branco, M.; Dias, J. Un marco bayesiano para la percepción artificial activa  //  IEEE Transactions on Systems, IEEE Transactions on Systems, Man, and Cybernetics, Part B: revista. - 2012. - vol. 99 . — Pág. 1——13 .
  9. Ferreira, JF; Dias, JM Enfoques  probabilísticos de la percepción robótica . — Springer, 2014.
  10. Mekhnacha, K.; Mazer, E.; Bessière, P. Diseño e implementación de un modelador CAD bayesiano para aplicaciones robóticas  (inglés)  // Robótica avanzada: revista. - 2001. - vol. 15 , núm. 1 . — Pág. 45——69 . doi : 10.1163 / 156855301750095578 .
  11. Coue, C.; Pradalier, C.; Laugier, C.; Fraichard, T.; Bessière, P. Filtrado de ocupación bayesiano para el seguimiento de objetivos múltiples: una aplicación automotriz  //  Revista internacional de investigación en robótica : diario. - 2006. - vol. 25 , núm. 1 . — Pág. 19——30 . -doi : 10.1177/ 0278364906061158 .
  12. Vasudevan, S.; Siegwart, R. Conceptualización espacial bayesiana y clasificación de lugares para mapas semánticos en robótica móvil  //  Robótica y sistemas autónomos: revista. - 2008. - Vol. 56 , núm. 6 _ - Pág. 522--537 . -doi : 10.1016/ j.robot.2008.03.005 .
  13. Perrin, X.; Chavarriaga, R.; Colas, F.; Seigwart, R.; Millan, J. Interacción acoplada al cerebro para la navegación semiautónoma de un robot de asistencia  //  Robótica y sistemas autónomos: revista. - 2010. - Vol. 58 , núm. 12 _ - Pág. 1246--1255 . -doi : 10.1016/ j.robot.2010.05.010 .
  14. Rett, J.; Días, J.; Ahuactzín, JM. Razonamiento bayesiano para el análisis de movimiento de Laban utilizado en la interacción hombre-máquina   // Int . J. de Sistemas Inteligentes Basados ​​en el Razonamiento: revista. - 2010. - Vol. 2 , núm. 1 . — Pág. 13——35 . -doi : 10.1504/ IJRIS.2010.029812 .
  15. Möbus, C.; Eilers, M.; Garbe, H. & Zilinski, M. (2009), Probabilistic and Empirical Grounded Modeling of Agents in (Partial) Cooperative Traffic Scenarios , en Duffy, Vincent G., Digital Human Modeling , Lecture Notes in Computer Science, volumen 5620, Second International Conferencia, ICDHM 2009, San Diego, CA, EE. UU.: Springer, p. 423-432, ISBN 978-3-642-02808-3 , doi : 10.1007/978-3-642-02809-0_45 Archivado el 11 de junio de 2018 en Wayback Machine . 
  16. Möbus, C. & Eilers, M. (2009), Pasos adicionales hacia el modelado de controladores según el enfoque de programación bayesiano , en Duffy, Vincent G., Digital Human Modeling , Lecture Notes in Computer Science, volumen 5620, Segunda conferencia internacional, ICDHM 2009, San Diego, CA, EE. UU.: Springer, pág. 413-422, ISBN 978-3-642-02808-3 , doi : 10.1007/978-3-642-02809-0_44 Archivado el 10 de junio de 2018 en Wayback Machine . 
  17. Eilers, M.; Mobus, C. (2010). “Lernen eines modularen Modelos de mezcla de comportamientos de controladores autónomos bayesianos (BAD MoB)” (PDF) . En Kolrep, H.; Jurgensohn, Th. Fahrermodellierung - Zwischen kinematischen Menschmodellen und dynamisch-kognitiven Verhaltensmodellen . Fortschrittsbericht des VDI in der Reihe 22 (Mensch-Maschine-Systeme). Düsseldorf, Alemania: VDI-Verlag. páginas. 61–74. ISBN  978-3-18-303222-8 . Archivado el 3 de febrero de 2014 en Wayback Machine .
  18. Möbus, C.; Eilers, M. Manual de investigación sobre inteligencia ambiental y entornos inteligentes: tendencias y perspectivas  / Mastrogiovanni, F.; Chong, N.-Y.. - Hershey, Pennsylvania (EE. UU.): Publicaciones de IGI Global, 2011. - P. 460-512. — ISBN 9781616928575 . -doi : 10.4018 / 978-1-61692-857-5.ch023 .
  19. Eilers, M.; Mobus, C. (2011). "Aprender las percepciones relevantes de los modelos de controladores bayesianos jerárquicos modulares utilizando un criterio de información bayesiano". En Duffy, Modelado Humano Digital VG . LNCS 6777. Heidelberg, Alemania: Springer. páginas. 463-472. DOI : 10.1007/978-3-642-21799-9_52 . ISBN  978-3-642-21798-2 .
  20. Eilers, M.; Mobus, C. (2011). “Aprendizaje de un modelo de mezcla de comportamientos de conductores autónomos bayesianos (BAD-MoB)” . En Duffy, VG Avances en Modelado Humano Digital Aplicado . LNCS 6777. Boca Raton, EE. UU.: CRC Press, Taylor & Francis Group. páginas. 436-445. ISBN  978-1-4398-3511-1 . Archivado el 1 de febrero de 2014 en Wayback Machine .
  21. Le Hy, R.; Arrigoni, A.; Bessière, P.; Lebetel, O. Enseñanza de comportamientos bayesianos a personajes de videojuegos  //  Robótica y sistemas autónomos: revista. - 2004. - vol. 47 , núm. 2-3 . - Pág. 177--185 . -doi : 10.1016/ j.robot.2004.03.012 .
  22. Synnaeve, G. Programación y aprendizaje bayesianos para videojuegos multijugador  . — 2012.
  23. Colas, F.; Droulez, J.; Wexler, M.; Bessière, P. Un modelo probabilístico unificado de la percepción de la estructura tridimensional del flujo óptico  //  Cibernética biológica: revista. - 2008. - P. 132--154 .
  24. Laurens, J.; Droulez, J. Procesamiento bayesiano de información vestibular  //  Cibernética biológica. - 2007. - vol. 96 , núm. 4 . - Pág. 389--404 . -doi : 10.1007/ s00422-006-0133-1 .
  25. Colas, F.; Flacher, F.; Tanner, T.; Bessière, P.; Girard, B. Modelos bayesianos de selección de movimiento ocular con mapas retinotópicos  (inglés)  // Cibernética biológica: revista. - 2009. - Vol. 100 , núm. 3 . — Pág. 203——214 . -doi : 10.1007 / s00422-009-0292-y .
  26. Serkhane, J.; Schwartz, JL.; Bessière, P. Construyendo un bebé robot parlante Una contribución al estudio de la adquisición y evolución del habla  //  Estudios de interacción: revista. - 2005. - vol. 6 , núm. 2 . - Pág. 253--286 . -doi : 10.1075 / is.6.2.06ser .
  27. Moulin-Frier, C.; Laurent, R.; Bessière, P.; Schwartz, JL.; Diard, J. Las condiciones adversas mejoran la distinguibilidad de las teorías auditivas, motoras y percep-tuo-motoras de la percepción del habla: un estudio exploratorio de modelado bayesiano  //  Lenguaje y procesos cognitivos: revista. - 2012. - vol. 27 , núm. 7-8 . — Pág. 1240——1263 . -doi : 10.1080/ 01690965.2011.645313 .
  28. Gilet, E.; Diard, J.; Bessière, P. Modelo computacional bayesiano de acción-percepción: interacción de producción y reconocimiento de letras  cursivas (inglés)  // PLOS One  : revista / Sporns, Olaf. - 2011. - vol. 6 , núm. 6 _ — P.e20387 . - doi : 10.1371/journal.pone.0020387 . - .
  29. El nuevo algoritmo ayuda a las máquinas a aprender tan rápido como los humanos . www.gizmag.com (22 de enero de 2016). Fecha de acceso: 23 de enero de 2016. Archivado desde el original el 24 de enero de 2016.
  30. Zadeh, Lofti, A. Conjuntos borrosos   // Información y control : diario. - 1965. - Vol. 8 , núm. 3 . — Pág. 338——353 . -doi : 10.1016 / S0019-9958(65)90241-X .
  31. Zadeh, Lofti, A. Lógica difusa y razonamiento aproximado  //  Synthese : diario. - 1975. - vol. 30 , núm. 3——4 . - Pág. 407--428 . -doi : 10.1007/ BF00485052 .
  32. Dubois, D.; Prade, H. Teoría de la posibilidad, teoría de la probabilidad y lógica de valores múltiples: una aclaración   // Ann . Matemáticas. Artefacto Intel. : diario. - 2001. - vol. 32 , núm. 1——4 . — Pág. 35——66 . -doi : 10.1023/A : 1016740830286 .
  33. Poole, D. Abducción probabilística de Horn y redes bayesianas  //  Inteligencia artificial. - 1993. - vol. 64 . - P. 81-129 . -doi : 10.1016 / 0004-3702(93)90061-F .
  34. Poole, D. La lógica de elección independiente para modelar agentes múltiples bajo incertidumbre  //  Inteligencia artificial: diario. - 1997. - vol. 94 . - Pág. 7-56 . - doi : 10.1016/S0004-3702(97)00027-1 .
  35. Sato, T.; Kameya, Y. Aprendizaje de parámetros de programas lógicos para modelado simbólico-estadístico  (inglés)  // Journal of Artificial Intelligence Research : diario. - 2001. - vol. 15 _ - Pág. 391--454 . Archivado desde el original el 12 de julio de 2014.

Literatura

Enlace