Instituto de Investigación de Inteligencia de Máquinas | |
---|---|
Centro administrativo | |
Tipo de organización | organización sin ánimo de lucro |
Base | |
fecha de fundación | 2000 |
Sitio web | inteligencia.org _ |
Machine Intelligence Research Institute (MIRI; anteriormente Singularity Institute y Singularity Institute for Artificial Intelligence ) es una organización sin fines de lucro cuyo objetivo principal es crear inteligencia artificial segura , así como estudiar los peligros y oportunidades potenciales que pueden surgir al crear IA. La organización apoya las ideas presentadas originalmente por Irving Goode y Vernor Vinge con respecto a la "explosión intelectual" o singularidad , y las ideas de Eliezer Yudkowsky sobre la creación de una IA amigable. Yudkowsky está investigando en el Singularity Institute de EE. UU. los problemas de riesgo global que puede crear una futura IA sobrehumana si no está programada para ser amigable con los humanos [1] .
De 2007 a 2010, el inventor y futurista Ray Kurzweil fue uno de los directores de la organización . El personal asesor de la organización incluye al filósofo de Oxford Nick Bostrom , al gerontólogo Aubrey de Gray , al cofundador de PayPal Peter Thiel y a la cofundadora del Foresight Nanotech Institute Christina Paterson.
La organización tiene oficinas en los Estados Unidos y Canadá.
El primer proyecto del SIAI (Singularity Institute for Artificial Intelligence) fue el "lenguaje de programación anotativo" (annotative Programming Language) Flare [2] , cuyo desarrollo comenzó en julio de 2001. El lenguaje fue diseñado para crear la semilla de la IA con él. El proyecto se cerró en menos de un año.
En 2002, el sitio web de SIAI publicó una preimpresión del capítulo "Niveles de organización de la inteligencia general" [3] del libro Real AI: New Approaches to Artificial General Intelligence (editado por Ben Herzel y Cassio Pennachin). Más tarde ese año, SIAI publicó dos importantes capítulos de introducción, "¿Qué es la singularidad" [4] y "¿Por qué trabajar en la aproximación de la singularidad" [5] .
En 2003, el representante de la organización Michael Anissimov hizo una presentación en la conferencia internacional Transvision 2003, celebrada en la Universidad de Yale .
En 2004, SIAI creó AsimovLaws.com [6] para discutir la ética de la IA en el contexto de las cuestiones planteadas en la película Yo, robot , estrenada apenas dos días después. A principios del próximo año, la sede del Instituto se traslada de Atlanta a Silicon Valley .
En febrero de 2006, el Instituto constituye un fondo por un monto de 200 mil dólares [7] . La mayor parte del fondo (100.000 dólares) provino del cofundador de Paypal, Peter Thiel. En mayo de 2006, en la Cumbre de Singularidad de Stanford, se tomó la decisión de ampliar el personal del Instituto.
El Instituto, junto con KurzweilAI.net y el Centro de Estudios del Lenguaje y la Información, patrocina la Cumbre de Singularidad de Stanford. El director del Instituto, Peter Thiel, actúa como moderador de la cumbre [8] . La cumbre reunió a unos 1.300 especialistas. Los participantes de la cumbre incluyeron a Ray Kurzweil , Nick Bostrom , Corey Doctorow , Eric Drexler , Douglas Hofstadter , Steve BillMax , Sebastian Thrun y Eliezer Yudkowsky
En 2007, se llevó a cabo una cumbre similar en el Teatro del Palacio de las Artes en San Francisco. La tercera Singularity Summit tuvo lugar el 5 de octubre de 2008 en San José.
El Instituto financia el proyecto Open Cognition Framework ( OpenCog ), cuyo objetivo es proporcionar "a los investigadores y desarrolladores de software una plataforma común para crear programas de IA".
En 2013, la organización cambió su nombre por el de Machine Intelligence Research Institute [9] .
El Instituto de Investigación de Inteligencia de Máquinas estudia preguntas estratégicas relacionadas con la IA, como: ¿Qué podemos (y no podemos) predecir sobre el futuro de la tecnología de IA? ¿Cómo podemos mejorar nuestras habilidades de pronóstico? ¿Qué intervenciones disponibles en la actualidad parecen ser las más útiles, dado lo poco que sabemos? [diez]
Desde 2014, MIRI ha financiado el trabajo de pronóstico a través del proyecto independiente AI Impacts. AI Impacts está estudiando ejemplos históricos de cambios tecnológicos discontinuos y ha desarrollado nuevas medidas del poder de procesamiento relativo de los humanos y el hardware de la computadora. [11] [12]
El interés de los investigadores de MIRI en la IA discontinua se deriva del argumento de I.J. Good de que los sistemas de IA lo suficientemente avanzados eventualmente superarán a los humanos en las tareas de desarrollo de software, lo que conducirá a un ciclo de retroalimentación de sistemas de IA cada vez más capaces:
Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier ser humano, en la medida de lo posible. Dado que el diseño de máquinas es una de estas tareas inteligentes, una máquina ultrainteligente podría diseñar máquinas aún mejores; Entonces indudablemente habría habido una " explosión de inteligencia " (orig: "explosión de inteligencia"), y la mente humana habría quedado muy atrás. Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre debería hacer, siempre que la máquina sea lo suficientemente obediente como para decirnos cómo mantenerla bajo control. [13]
Escritores como Bostrom usan el término superinteligencia en lugar del ultraintelectual de Goode. Siguiendo a Vernor Vinge , la idea de Goode de una explosión de inteligencia pasó a vincularse con la idea de una "singularidad tecnológica". Bostrom y los investigadores del MIRI han expresado su escepticismo sobre las opiniones de los defensores de la singularidad como Ray Kurzweil , de que la superinteligencia está "a la vuelta de la esquina". Los investigadores de MIRI abogan por el trabajo de seguridad temprano como medida de precaución, argumentando que las predicciones anteriores sobre el progreso de la IA no han sido confiables. [catorce]
El documento de prioridades de investigación del Future of Life Institute (FLI) establece:
Las herramientas matemáticas, como la lógica formal, la probabilidad y la teoría de la decisión, han proporcionado una visión significativa de los fundamentos del razonamiento y la toma de decisiones. Sin embargo, todavía hay muchos problemas abiertos en el corazón del razonamiento y las decisiones. Las soluciones a estos problemas pueden hacer que el comportamiento de los sistemas altamente capaces sea mucho más confiable y predecible. Los ejemplos de investigación en esta área incluyen razonar y decidir, con recursos informáticos limitados al estilo de Horvitz y Russell, cómo dar cuenta de las correlaciones entre el comportamiento de los sistemas de IA y el comportamiento de su entorno, los agentes como agentes integrados en su entorno u otros factores deterministas. cálculos Estos temas pueden beneficiarse de ser considerados juntos, ya que parecen estar profundamente relacionados.
Los procedimientos de decisión estándar no están bien definidos (por ejemplo, con respecto a los contrafácticos) para formalizarse como algoritmos. El investigador del Machine Intelligence Research Institute Benja Pallenstein y el entonces investigador Nate Soares escriben que la teoría de la decisión causal es "reflexivamente inestable" en el sentido de que un agente racional que sigue la teoría de la decisión causal "identifica correctamente que el agente debe cambiarse a sí mismo para dejar de usar la teoría de la causa ". y efectuar decisiones para la toma de decisiones.” Los investigadores identifican las "teorías de decisión lógica" como alternativas que funcionan mejor en las tareas generales de toma de decisiones.
Si un sistema de IA elige las acciones que mejor le permiten completar una tarea, entonces evitar las condiciones que impiden que el sistema continúe completando la tarea es un subobjetivo natural (y, por el contrario, encontrar situaciones incondicionales a veces es una heurística útil). Sin embargo, esto puede volverse problemático si queremos redistribuir el sistema, desactivarlo o cambiar significativamente el proceso de toma de decisiones; Tal sistema evitaría racionalmente estos cambios. Los sistemas que no exhiben este comportamiento se denominan sistemas correctivos, y el trabajo teórico y práctico en esta área parece ser aceptable y útil.
Las prioridades del Machine Intelligence Research Institute en estas áreas se resumen en el programa técnico de 2015 .
![]() |
---|
transhumanismo | ||
---|---|---|
Lo esencial | ||
corrientes | ||
Organizaciones | ||
Gente |