El invierno de la inteligencia artificial es un período en la historia de la investigación de inteligencia artificial asociado con una reducción en la financiación y una disminución general del interés en los problemas [1] . El término fue introducido por analogía con el término " invierno nuclear " [2] . El campo de la inteligencia artificial pasó por varios ciclos, acompañados de un aumento de la publicidad, seguidos de "inviernos": decepción, críticas y posterior reducción de la financiación, y luego un interés renovado unos años o décadas más tarde [3] .
El término se mencionó por primera vez en 1984 en la reunión anual de la AAAI (Asociación Estadounidense de Inteligencia Artificial): en una de las discusiones, Roger Shank y Marvin Minsky , dos investigadores líderes en el campo de la inteligencia artificial, advirtieron a la empresa. comunidad que el entusiasmo por la dirección estaba fuera de control, y que la decepción seguiría, quedó ilustrado por el "primer invierno" de la dirección experimentado en la década de 1970. Después de esta discusión, siguió una reacción en cadena, acompañada de pesimismo entre los investigadores, que también se difundió en los medios de comunicación, y finalmente condujo a una disminución de la financiación y la paralización de grandes obras [2] ; tres años más tarde, la industria de la inteligencia artificial de miles de millones de dólares prácticamente se vino abajo [2] .
Al igual que con cualquier exageración que acompañe a tecnologías prometedoras y se caracterice por recesiones posteriores ( manía ferroviaria , burbuja de las puntocom ), los "inviernos de IA" significaron principalmente un colapso en la percepción de quienes toman decisiones sobre financiamiento: funcionarios gubernamentales, inversionistas, capitalistas de riesgo. , jefes de organizaciones . Al mismo tiempo, a pesar del auge y la caída de la reputación de la inteligencia artificial, la investigación en esta área se llevó a cabo de forma continua y, después de las recesiones, el interés de los inversores se reanudó como los siguientes resultados. Así, en 2005, Ray Kurzweil señaló que el “invierno de la IA” no interrumpió el trabajo en esta área y, a mediados de la década de 2000, “muchos miles de aplicaciones de inteligencia artificial están profundamente integradas en la infraestructura de todas las industrias” [4] .
Dos largos "inviernos" se atribuyen a los períodos de 1974-1980 y 1987-1993 [5] [6] . Además, hubo varios episodios menos significativos que contribuyeron al declive del interés por la dirección, como el fracaso de los proyectos de traducción automática en 1966 y el fracaso del concepto de conexionismo en 1970. Otros periodos de bajada de interés:
Durante la Guerra Fría , el gobierno de EE. UU. estaba especialmente interesado en la traducción automática e instantánea de documentos e informes científicos rusos. Desde 1954, el gobierno de EE. UU. se ha esforzado mucho en el desarrollo de la traducción automática. Al principio, los investigadores eran optimistas: el nuevo trabajo de Noam Chomsky sobre gramática estaba simplificando el proceso de traducción, y había "muchas predicciones de un próximo avance" [7] .
Sin embargo, los investigadores han subestimado la dificultad de resolver la polisemia léxica . Para poder traducir una oración sin errores, la máquina tenía que tener una idea de qué se trataba la oración. Según el mito [8] , la frase “el espíritu está dispuesto pero la carne es débil” (espíritu fuerte, pero la carne es débil) cuando se traduce al ruso y luego al inglés se convierte en “el vodka es bueno pero la carne está podrido” (vodka bueno, pero la carne está podrida) [9] , y “fuera de la vista, fuera de la mente” (fuera de la vista, fuera de la mente) - en “idiota ciego” (idiota ciego). Los investigadores posteriores llamarían a esto sentido común
En 1964, el Consejo Nacional de Investigación de EE. UU. (NRC) hizo sonar la alarma sobre la falta de progreso y formó el Comité Asesor de Procesamiento Automático del Lenguaje para investigar el problema. En su informe de 1966, el comité concluyó que la traducción automática resultó ser más costosa, menos precisa y más lenta que la traducción humana. Después de gastar alrededor de $ 20 millones, NRC redujo todo el desarrollo. Las canteras fueron destruidas y la investigación se detuvo [10] [7] .
En el siglo XXI, la traducción automática sigue siendo un problema abierto, aunque se ha resuelto con cierto éxito ( Google Translate , Yahoo Babel Fish ).
Algunos de los primeros trabajos de IA utilizaron redes o circuitos de bloques conectados para simular un comportamiento inteligente. Ejemplos de este enfoque, llamado conexionismo , son la primera descripción de una red neuronal artificial de Walter Pitts y Warren McCulloch , y el trabajo de Marvin Minsky sobre SNARC A fines de la década de 1950, la mayoría de estos enfoques fueron abandonados cuando los investigadores comenzaron a explorar el razonamiento simbólico (razonamiento simbólico como la base de la inteligencia después del éxito de programas como Logic Theorist y General Problem Solver 11]
Sin embargo, se continuó trabajando en una rama del conexionismo: el estudio del perceptrón , propuesto por Frank Rosenblatt , quien logró apoyar la investigación en esta área debido a sus habilidades como "vendedor" y la fuerza de su personalidad [12] . Predijo con optimismo que el perceptrón "con el tiempo podrá aprender, tomar decisiones y traducir idiomas" [13] . La investigación convencional sobre perceptrones se detuvo abruptamente en 1969 con la publicación de Perceptrons de Marvin Minsky y Seymour Papert , que describía los límites de los perceptrones.
El conectivismo fue olvidado durante las próximas décadas. Aunque continuó un trabajo importante en esta dirección, por ejemplo, se propuso retropropagación , fue difícil encontrar financiación suficiente para proyectos conexionistas en la década de 1970 y principios de la de 1980 [14] . El "invierno" de la investigación conexionista terminó a mediados de la década de 1980, cuando el trabajo de John Hopfield , David Rumelhart y otros revivió el interés a gran escala en las redes neuronales [15] . Rosenblatt no esperó esto, murió en un accidente poco después de la publicación del libro "Perceptrones" [13] .
En 1973, el Parlamento británico encargó al profesor Sir James Lighthill que evaluara el estado de la investigación en inteligencia artificial en el Reino Unido. Su informe, conocido como el Informe Lighthill , criticó el fracaso general de AI para lograr sus "grandes objetivos". Llegó a la conclusión de que todo lo que puede hacer la IA también lo pueden hacer otras ciencias. Destacó especialmente los problemas de " explosión combinatoria " e " intratabilidad ", lo que demostró que la mayoría de los algoritmos de IA más exitosos son adecuados solo para resolver problemas de "juguete", y no funcionan en problemas prácticos reales [16] .
El informe fue impugnado en un debate que se transmitió en el programa "Controversia" de la BBC en 1973. En el debate "Universal Robot is a Mirage", Lighthill, en representación de la Royal Institution, argumentó contra un equipo de Donald Johny Richard Gregory17McCarthy escribió más tarde que "el problema de la explosión combinatoria se reconoció en la IA desde el principio" [18] .
El Informe Lighthill condujo al cese de la mayoría de las investigaciones sobre IA en el Reino Unido [16] . La investigación continuó solo en unas pocas universidades de segundo nivel ( Edimburgo , Essex y Sussex ). James Hendler escribe: "Esto creó un efecto dominó que condujo a una reducción de la financiación para el desarrollo de la IA en toda Europa" [19] . La investigación a gran escala no se reanudó hasta 1983, cuando el Proyecto en respuesta al Proyecto informático japonés de quinta generación , comenzó a financiar 350 millones de libras esterlinas en IA del presupuesto militar. Alvey tenía una serie de requisitos que solo afectaban al Reino Unido, lo que no convenía a los socios internacionales, especialmente a los estadounidenses, y se convirtió en el motivo de la terminación de la financiación de la segunda etapa.
Durante la década de 1960, la Agencia de Proyectos de Investigación Avanzada de Defensa (entonces conocida como "ARPA", ahora "DARPA") proporcionó millones de dólares para la investigación de inteligencia artificial con pocas o ninguna condición. El director de DARPA en esos años, Joseph Licklider , creía en “financiar personas, no proyectos” [13] y permitía que los líderes de la industria de la IA (como Marvin Minsky , John McCarthy, Herbert A. Simon y Allen Newell ) lo gastaran en casi cualquier propósito.
Esto cambió con la aprobación de la Enmienda Mansfield en 1969, que requería que DARPA "financiara "investigación dirigida, no investigación general no dirigida A partir de ahora, las propuestas de los investigadores de inteligencia artificial se consideraron con estándares muy estrictos. La situación se ha vuelto aún más complicada después de la publicación del informe Lighthill y el propio estudio de DARPA (American Study Group), que mostró que es poco probable que la mayoría de las investigaciones sobre inteligencia artificial traigan algún beneficio en el futuro previsible. Como resultado, el dinero de DARPA se dirigió a proyectos con objetivos más claros, como tanques autónomos y sistemas de gestión de batalla. Hacia 1974, era difícil encontrar financiación para proyectos de inteligencia artificial [20] .
El investigador de IA Hans Moravec culpó de la crisis a los pronósticos poco realistas de sus colegas: “Muchos investigadores se han encontrado en una red de creciente exageración. Las primeras promesas que hizo a DARPA fueron demasiado optimistas. Por supuesto, lo que desarrollaron como resultado fue significativamente diferente de las promesas. Pero creyeron que la próxima vez no podían prometer menos que la primera, así que prometieron aún más” [13] . Como resultado, el personal de DARPA ha perdido la paciencia con la investigación de IA, argumenta Moravec. Moravec le dijo a Daniel Crevier que "DARPA literalmente dijo que a algunas de estas personas se les debería dar una lección recortando sus contratos de dos millones de dólares al año a casi [13] .
Aunque el proyecto de tanque autónomo fracasó, el sistema de gestión de combate (Dynamic Analysis and Replanning Tool, DART) tuvo un gran éxito y ahorró miles de millones de dólares durante la primera Guerra del Golfo , compensando así toda la inversión de DARPA en IA [21] y justificando así una política pragmática. DARPA [22] .
DARPA estaba profundamente decepcionado por los investigadores de la Universidad Carnegie Mellon que estaban trabajando en un programa de reconocimiento de voz. DARPA esperaba recibir, y creía que se les prometió proporcionar, un sistema de control de voz para pilotos. El equipo de SUR desarrolló un sistema que podía reconocer el inglés hablado, pero solo si las palabras se decían en cierto orden. DARPA sintió que habían sido engañados, y en 1974 cancelaron la subvención de $3 millones al año [23] .
Muchos años después, los exitosos sistemas comerciales de reconocimiento de voz utilizarían tecnologías desarrolladas por el equipo de Carnegie Mellon (como los Modelos ocultos de Markov ), y en 2001 el mercado de los sistemas de reconocimiento de voz alcanzaría los 4.000 millones de dólares [24] .
En la década de 1980, las corporaciones de todo el mundo adoptaron sistemas expertos (una forma de inteligencia artificial). El primer sistema experto comercial fue XCON , desarrollado en la Universidad Carnegie Mellon para Digital Equipment Corporation . Un gran éxito, ayudó a Digital Equipment a ahorrar aproximadamente $40 millones durante seis años de operación. Las corporaciones de todo el mundo comenzaron a desarrollar e implementar sistemas expertos, y en 1985 estaban gastando más de mil millones de dólares en IA, la mayoría de los cuales se destinaron a los departamentos internos de inteligencia artificial. incluidos desarrolladores de software como Teknowledge e ) fabricantes de hardware como Symbolics Lisp Crearon computadoras de IA dedicadas, máquinas Lisp , optimizadas para procesar el lenguaje de programación Lisp , en ese momento el lenguaje preferido en el desarrollo de IA [13] .
En 1987, tres años después de la predicción de Minsky y Schank, el mercado de máquinas Lisp colapsó. Las estaciones de trabajo de empresas como Sun Microsystems ofrecieron una poderosa alternativa a las máquinas Lisp, y empresas como Lucid Inc. , ofreció un marco LISP para esta nueva clase de estación de trabajo. El rendimiento de las estaciones de trabajo de propósito general se convirtió en un desafío cada vez más difícil para las máquinas Lisp. Empresas como Lucid Inc. y Franz Inc , ofrecieron versiones cada vez más poderosas de LISP. Los resultados de referencia han demostrado que las estaciones de trabajo superan a las máquinas Lisp [25] . Más tarde, las computadoras de escritorio de Apple e IBM también ofrecerían una arquitectura más simple y popular para ejecutar aplicaciones LISP. En 1987 eran más potentes que las máquinas Lisp más caras. Los motores basados en reglas como CLIPS [26] estaban disponibles en las computadoras de escritorio . Estas alternativas no dejaban ninguna razón para que los consumidores compraran costosas máquinas Lisp. Toda la industria de máquinas Lisp de medio billón de dólares desapareció en un año [13] .
Desde un punto de vista comercial, muchas empresas Lisp quebraron, como Symbolics, Lisp Machines Inc., Lucid Inc. y otros Otras empresas, como Texas Instruments y Xerox , han abandonado la industria. Sin embargo, varias empresas clientes continuaron usando y manteniendo sistemas escritos en Lisp y desarrollados en máquinas Lisp.
A principios de la década de 1990, los primeros sistemas expertos exitosos como XCON demostraron ser demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender, eran "frágiles" (cometían errores tontos cuando se les daban entradas inusuales). También fueron víctimas de problemas (como problema de calificación que se encuentran en el estudio de la lógica no monótona Los sistemas expertos han demostrado ser efectivos solo en unos pocos contextos específicos [1] . Otro problema se refería a la complejidad computacional del problema de mantenimiento de la verdad relativo al conocimiento general. KEE usó un enfoque basado en suposiciones (ver NASA, TEXSYS [27] ) que admitía múltiples escenarios mundiales [27] que era difícil de entender y aplicar.
El pequeño número de empresas que permanecieron en el campo de los sistemas expertos finalmente se vieron obligados a recortar personal y buscar nuevos mercados y paradigmas de software, como el razonamiento basado en casos o el acceso universal a bases de datos . El desarrollo de Common Lisp ha salvado muchos sistemas, como ICAD , que han encontrado uso en la ingeniería basada en el conocimiento. Otros sistemas, como KEE Intellicorp, pasaron de Lisp a C++ en la PC y ayudaron a establecer tecnologías orientadas a objetos (incluyendo importantes contribuciones al desarrollo de UML ).
En 1981, el Industria y Comercio Internacional de Japón asignó 850 millones de dólares para el Proyecto de Computadoras de Quinta Generación Su tarea era crear programas y máquinas capaces de mantener una conversación, traducir idiomas, comprender imágenes y pensar como personas. Para 1991 no se había cumplido la impresionante lista de metas trazada en 1981, y algunas de ellas no se cumplieron ni en 2001 ni en 2011. Al igual que con otros proyectos de IA, las expectativas eran mucho mayores que la capacidad de realizarlas [13] .
En 1983, DARPA, en respuesta al proyecto de quinta generación, renovó la financiación para la investigación de inteligencia artificial mediante el lanzamiento de la Iniciativa de Computación Estratégica. Se suponía que el proyecto comenzaría con objetivos prácticos y alcanzables, uno de los cuales era la inteligencia artificial a largo plazo. El programa fue administrado por la Oficina de Tecnología de Procesamiento de la Información y también se centró en las supercomputadoras y la microelectrónica . Para 1985, se habían gastado $100 millones en el programa y se habían lanzado 92 proyectos en 60 instituciones, la mitad de ellos en la industria, la otra mitad en universidades y laboratorios gubernamentales. La investigación en inteligencia artificial ha sido generosamente financiada por SCI [11] .
En 1987, Jack Schwartz se hizo cargo de IPTO y descartó los sistemas expertos como "programación hábil" y recortó la financiación de IA "profunda y severamente", privando a SCI de contenido. Schwartz no consideraba a la IA una "nueva ola" y quería centrar la financiación de DARPA solo en las tecnologías más prometedoras. Según él, DARPA debería "navegar", no "nadar como un perro". Además, el personal del programa reportó problemas de comunicación, organización e integración. Solo unos pocos proyectos sobrevivieron a los recortes en la financiación: el piloto asistente, el vehículo terrestre no tripulado (nunca construido) y el sistema de gestión de combate DART (que, como se señaló anteriormente, tuvo éxito) [11] .
Una revisión de los informes de mediados de la década de 2000 sugiere que la reputación de AI todavía no estaba exenta de fallas:
Muchos investigadores a mediados de la década de 2000 evitaron deliberadamente el término IA y utilizaron otros nombres para sus actividades, como ciencias de la computación , aprendizaje automático , análisis, sistemas basados en el conocimiento , sistema de gestión de reglas comerciales , sistemas cognitivos , sistemas inteligentes , sistemas inteligentes . agentes , inteligencia computacional , para enfatizar la aplicación de herramientas específicas o para mostrar un enfoque en una tarea específica de nivel inferior. Si bien los científicos podrían considerar que su campo es fundamentalmente diferente de la IA, los nuevos títulos ayudaron a asegurar la financiación porque eliminaron el estigma de las promesas incumplidas asociadas con la "inteligencia artificial" [30] .
Ray Kurzweil escribió en 2005: “Muchos expertos todavía creen que el invierno de la IA fue el final de la industria y que la IA realmente no ha llegado a buen término desde entonces, pero ya hoy en día hay miles de aplicaciones de IA en todas las industrias y son profundamente entretejido en su infraestructura” [31 ] . A fines de la década de 1990 y principios del siglo XXI, las tecnologías de IA se utilizaron ampliamente como parte de varios sistemas [32] [31] , aunque su éxito casi nunca se atribuyó a la IA. En 2006, Nick Bostrom explicó que "muchas tecnologías de inteligencia artificial de vanguardia se han vuelto de uso general, a menudo sin mencionar la inteligencia artificial en absoluto, porque una vez que algo se vuelve útil o lo suficientemente generalizado, deja de llamarse inteligencia artificial". Rodney Brooks dijo casi al mismo tiempo, "existe este estúpido mito de que la IA no ha estado a la altura de las expectativas, pero la IA está a tu alrededor cada segundo" [33] .
Las tecnologías de IA han logrado el éxito comercial en áreas como la traducción automática, la minería de datos , la robótica industrial , la logística [21] , el reconocimiento de voz, el software bancario, el diagnóstico médico y el motor de búsqueda de Google [34] .
Los controladores de lógica difusa se han desarrollado para transmisiones automáticas en automóviles. En 2006, el Audi TT, VW Touareg y VW Caravell están equipados con una caja de cambios DSP que utiliza lógica difusa. Varios modelos de Skoda ( Skoda Fabia ) utilizan controladores de lógica difusa. La lógica difusa se usa ampliamente en sensores de cámara para enfocar.
La búsqueda heurística y el análisis de datos han evolucionado desde el modelado evolutivo y el aprendizaje automático dentro del ámbito de la inteligencia artificial . Una vez más, estas tecnologías han logrado un éxito comercial significativo en una amplia gama de aplicaciones del mundo real. Por ejemplo, se utilizó la búsqueda heurística para crear horarios de tiendas y planificación de horarios de trabajo para 20 000 ingenieros. El análisis de datos, junto con los algoritmos de generación de clasificadores automatizados desarrollados en la década de 1990 por investigadores de aprendizaje automático supervisados (por ejemplo, TDIDT, Support Vector Machines, Neural Nets, IBL), ahora se usa ampliamente para la orientación de encuestas de marketing, tendencias y detección de características (características) en conjuntos de datos.
Los investigadores y economistas evalúan el estado de cosas en IA, principalmente por qué proyectos de IA están financiados, por quién y en qué cantidades. Las tendencias financieras a menudo las establecen las grandes instituciones financieras del mundo desarrollado. Actualmente, DARPA y el programa de financiación civil EU-FP7 proporcionan una parte significativa de la financiación para la investigación de IA en los EE. UU. y la Unión Europea .
Para 2007, DARPA consideró propuestas de investigadores de IA bajo una serie de programas, incluidos The Grand Challenge Program , Cognitive Technology Threat Warning System (CT2WS), "Human Assisted Neural Devices (SN07-43)", "Autonomous Sistema de imágenes de vigilancia ubicua terrestre en tiempo real (ARGUS-IS)" y "Razonamiento urbano y explotación de tecnología geoespacial (URGENT)".
Probablemente el más famoso sea el "Programa Gran Desafío" de DARPA [35] , que desarrolló vehículos de carretera completamente automatizados capaces de atravesar con éxito de forma autónoma terreno real [36] .
DARPA también admite programas en la Web Semántica , con un fuerte enfoque en la gestión inteligente de contenido y la comprensión automatizada. Sin embargo, James Hendler DARPA , expresó su frustración con la capacidad del gobierno para realizar cambios rápidos y decidió asociarse con consorcio World Wide Web para transferir tecnología al sector privado.
El programa de financiación EU-FP7 proporciona apoyo a los investigadores de la Unión Europea. En 2007-2008 financió programas de investigación en IA: Sistemas Cognitivos: Interacción y Robótica (193 millones de euros), Bibliotecas Digitales y Contenidos Digitales (203 millones de euros), FET (185 millones de euros) [37] .
Hay algunos temores de que un nuevo invierno de IA pueda ser desencadenado por promesas demasiado ambiciosas o poco realistas de científicos de IA establecidos o por promesas excesivas de proveedores comerciales. Por ejemplo, a principios de la década de 1990, los investigadores temían que el invierno de la IA fuera impulsado por la publicidad generalizada sobre Cog de dos años
James Hendler señaló en 2008 que la financiación de la IA, tanto en la UE como en los EE. UU., se ha redirigido más hacia áreas aplicadas e investigación científica cruzada con ciencias tradicionales como la bioinformática [26] . Este alejamiento de la investigación básica se debe a que existe una tendencia hacia las aplicaciones prácticas, como la Web Semántica, por ejemplo . Citando el argumento de la línea de montaje (ver Razones), Handler vio un paralelo con el invierno de la década de 1980 y advirtió sobre el próximo invierno de IA en 2010.
Ha habido informes constantes en el pasado de que otra primavera de IA es inminente o ya está aquí:
Actualmente, un marcado aumento en la financiación, el desarrollo, la adopción y el uso comercial de la IA ha llevado al hecho de que el invierno de la IA ha terminado hace mucho tiempo [39] .
Se han propuesto varias explicaciones para los inviernos de IA. La causa más común de los inviernos es la exageración, pero también intervinieron otros factores, que se enumeran a continuación. Sin embargo, con el cambio en la financiación de la IA de los gobiernos a las organizaciones comerciales, ha entrado en juego una nueva dinámica.
El invierno de la IA puede verse como un colapso debido a expectativas sobreinfladas, comparable a las burbujas económicas en el mercado de valores, como la manía ferroviaria o la burbuja de las puntocom . En un modelo común para el desarrollo de nuevas tecnologías (conocido como el ciclo del hype ), cualquier evento, como un avance tecnológico, genera inicialmente un interés público generalizado, que se retroalimenta y crea un "pico de expectativas excesivas". Le sigue la "desilusión", en otras palabras, el colapso, ya que los esfuerzos de los científicos e ingenieros no están a la altura de las expectativas sobrecalentadas de los inversores y otras partes interesadas. Las tecnologías de IA han confirmado este modelo de desarrollo.
Otro factor fue el lugar de la IA en la organización de las universidades. La investigación de IA a menudo toma la forma investigación interdisciplinaria los proyectos pueden involucrar a expertos de campos que van desde la filosofía hasta la ingeniería . En vista de esto, la IA está sujeta a enfermedades típicas de la investigación interdisciplinaria. Así, con la reducción de la financiación, las facultades recortarán áreas no troncales, que incluyen proyectos de investigación interdisciplinarios e inusuales, es decir, IA.
Durante las recesiones económicas, los gobiernos recortan los presupuestos universitarios y la causa organizativa se intensifica aún más. Los inversores en tiempos de crisis eligen proyectos de inversión menos riesgosos que la IA. Juntos, esto convierte la crisis económica en un invierno de IA. El informe de Lighthill llegó en un momento de crisis económica en el Reino Unido [40] cuando las universidades tenían que elegir qué proyectos someter al quirófano.
El potencial de las redes neuronales fue bien reconocido, pero nunca se realizó debido a la etapa inicial del desarrollo de la tecnología informática. Incluso según los estándares actuales, las redes bastante simples requieren mucha potencia informática.
El vínculo entre la investigación básica y la tecnología a menudo se presenta como una tubería. Los avances en la investigación básica dan lugar a avances en la investigación aplicada, que a su vez conducen a nuevas aplicaciones comerciales. Por lo tanto, la falta de investigación fundamental conduce a una reducción en el mercado de la tecnología en unos pocos años en el futuro. Este punto de vista fue presentado por James Hendler en 2008 [26] , quien sugirió que el fracaso de los sistemas expertos a fines de la década de 1980 no se debió a su falta de confiabilidad inherente, sino a la reducción de la financiación para la investigación básica en la década de 1970. Los sistemas expertos aparecieron en la década de 1980 gracias a la investigación aplicada, pero a finales de la década la tubería estaba vacía, por lo que las deficiencias de los sistemas expertos no se podían eliminar, por lo que era imposible obtener más financiación.
El colapso del mercado de máquinas LISP y el fracaso de las computadoras de quinta generación son ejemplos de productos avanzados costosos que pierden frente a competidores más simples y más baratos. Esta situación entra dentro de la definición de innovación disruptiva barata , ya que los fabricantes de máquinas LISP han sido dejados de lado. Los sistemas expertos sobrevivieron al cambio de máquinas, se trasladaron a nuevas computadoras de escritorio, por ejemplo, con la ayuda de CLIPS , lo que deja claro que el colapso del mercado de máquinas LISP y el colapso de los sistemas expertos son dos eventos diferentes. La incapacidad de adaptarse a tal cambio en el mercado informático se considera una de las razones del invierno de los años 80 [26] .
Filósofos, cognitivistas e informáticos especulan sobre dónde ha fallado la IA y qué le sucederá en el futuro. Hubert Dreyfus ha enfatizado la falacia de las suposiciones de la investigación de IA el pasado y predijo correctamente ya en 1966 que la primera ola de investigación de IA no cumpliría las promesas públicas que hizo. Otros críticos, como Noam Chomsky, han argumentado que la IA se está moviendo en la dirección equivocada, en parte debido a su gran dependencia de los métodos estadísticos [41] . Los comentarios de Chomsky encajan en una discusión más amplia con Peter Norvig sobre el papel de los métodos estadísticos en la IA. La disputa entre los científicos comenzó con los comentarios de Chomsky en un simposio en el Instituto Tecnológico de Massachusetts [42] , a los que Norvig escribió una respuesta [43] .