Tres leyes de la robótica

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 24 de julio de 2017; la verificación requiere 71 ediciones .

Las Tres Leyes de la Robótica en la Ciencia Ficción  son reglas vinculantes de comportamiento para los robots , articuladas por primera vez por Isaac Asimov en el cuento Round Dance ( 1942 ).

Las leyes dicen:

  1. Un robot no puede dañar a una persona o por su inacción permitir que una persona sea dañada.
  2. Un robot debe obedecer todas las órdenes dadas por un humano, a menos que esas órdenes sean contrarias a la Primera Ley.
  3. El robot debe velar por su propia seguridad en la medida en que esto no contradiga la Primera o la Segunda Ley.
Texto original  (inglés)[ mostrarocultar]
  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Las Tres Leyes , así como las posibles causas y consecuencias de su violación, están dedicadas al ciclo de historias de Asimov sobre robots. Algunos de ellos, por el contrario, se ocupan de las consecuencias imprevistas de los robots siguiendo las Tres Leyes (por ejemplo, " Reflejo de espejo ").

En una de las historias del ciclo, el personaje de Asimov llega a la conclusión sobre la base ética de las Tres Leyes : “... si lo piensas bien, las Tres Leyes de la robótica coinciden con los principios básicos de la mayoría de los sistemas éticos que existen en Tierra... en pocas palabras, si Byerly cumple con todas las leyes de la robótica, él, o un robot, o una persona muy educada" [1] .

En 1986, en la novela Robots and Empire , Asimov propuso la Ley Cero  :

0. Un robot no puede causar daño a la humanidad o, por su inacción, permitir que se haga daño a la humanidad.

Texto original  (inglés)[ mostrarocultar]

0. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño.

Las tres leyes de la robótica  es un tema unificador para toda la ciencia ficción de Asimov, que incluye no solo el ciclo sobre robots, sino también algunas otras obras.

Historia de las Tres Leyes

El surgimiento del concepto

Antes de las Tres leyes de Asimov , la mayoría de las historias sobre criaturas artificiales en general, y sobre robots en particular, se escribieron con el espíritu de la famosa novela de Frankenstein . “Este problema se convirtió en uno de los más populares en el mundo de la ciencia ficción en las décadas de 1920 y 1930, cuando se escribieron muchas historias cuyo tema eran los robots que se rebelaron y destruyeron a sus creadores. ... Estaba terriblemente cansado de las advertencias que sonaban en obras de este tipo ”, [2] , señaló más tarde Asimov.

Sin embargo, no todos los escritores de ciencia ficción siguieron este patrón. En diciembre de 1938, se publicó el cuento de Lester del Rey "Helen O'Loy"  , la historia de una mujer robot que se enamora perdidamente de su creador y se convierte en su esposa ideal [3] . Un mes después, Otto Binder publicó la historia "Yo, robot" sobre el destino del robot Adam Link, una criatura que la gente no entiende, impulsada por el amor y los principios del honor [4] .

Asimov le gustó mucho esta historia. El 7 de mayo de 1939 visitó la Sociedad de Ciencia Ficción de Queens , donde conoció a Binder. Tres días después, Asimov comenzó a escribir su propia historia del "robot noble". Después de 13 días, entregó el manuscrito a su amigo John Campbell , editor en jefe de la revista Astounding . Sin embargo, devolvió el manuscrito, afirmando que la historia era demasiado similar a "Helen O'Loy" [5] .

Afortunadamente, la negativa de Campbell no afectó su relación con Asimov, continuaron reuniéndose regularmente y hablando de novedades en el mundo de la ciencia ficción. Y aquí el 23 de diciembre de 1940, mientras discutíamos otra historia sobre robots [6] [7] :

...Campbell formuló lo que más tarde se conocería como las Tres Leyes de la Robótica . Campbell dijo más tarde que simplemente había aislado las Leyes de lo que Asimov ya había escrito. El propio Asimov siempre cedió el honor de la autoría de las Tres Leyes a Campbell...

Unos años más tarde, otro amigo de Asimov, Randal Garrett  , atribuyó la autoría de las Leyes a una " sociedad simbiótica " de dos personas. Asimov aceptó con entusiasmo esta formulación.

En términos generales, la aparición de las Tres Leyes en las obras de Asimov se produjo de forma paulatina: los dos primeros relatos sobre robots (" Robbie ", 1940 y " Logic ", 1941 ) no las mencionan explícitamente. Sin embargo, ya implican que los robots tienen algunas limitaciones inherentes. En el siguiente cuento ("El mentiroso ", 1941), se escucha por primera vez la Primera Ley . Y, finalmente, las tres Leyes se dan en su totalidad en la Danza Redonda ( 1942 ).

Cuando se escribieron el resto de las historias y surgió la idea de publicar la colección " Yo, Robot ", las dos primeras historias se "completaron" con las Leyes . En "Robbie" las leyes eran algo diferentes a la versión "clásica" expuesta en el resto de las historias. En particular, la idea de un robot que protege a las personas que no está muy seguro de que exista hace eco de los pensamientos de Elijah Bailey sobre la imperfección de las Leyes , que se describen a continuación .

En la década de 1950, Asimov escribió principalmente para la juventud. Su editor sugirió que estas historias podrían convertirse en una serie de televisión . Temiendo que la adaptación cinematográfica se viera "uniformemente intimidante" como todo lo que pensaba que se mostraba en la televisión, Asimov decidió publicar la serie Lucky Starr bajo el seudónimo de Paul French . Cuando la adaptación cinematográfica fracasó, Asimov se quitó el seudónimo y complementó el texto de los relatos de la serie con Las Tres Leyes , confirmando así su autoría [8] .

Justificación ética de las Leyes

En el cuento " Evidencia " ( 1946 ), Asimov detalló la justificación moral de las Tres Leyes . La heroína de la historia, la Dra. Susan Kelvin , presenta los siguientes argumentos:

  1. Una persona generalmente se abstiene de dañar a otra persona, excepto en casos de compulsión aguda (como en la guerra ) o para salvar a más personas. Esto es equivalente a la Primera Ley .
  2. Del mismo modo, sintiéndose responsable ante la sociedad, una persona sigue las instrucciones de las personas con autoridad: médicos, maestros, jefes, etc., lo que corresponde a la Segunda Ley .
  3. Finalmente, cada uno de nosotros se preocupa por su propia seguridad, y esta es la Tercera Ley .

La historia está dedicada a la pregunta: ¿es posible distinguir entre una persona y un robot creado para parecerse a una persona , aparentemente indistinguible de una persona? Calvin afirma que si alguien sigue las Leyes , entonces es "o un robot o una muy buena persona". Y cuando se le pregunta si entonces hay una gran diferencia entre un robot y una persona, responde: “Una gran diferencia. En primer lugar, los robots son profundamente decentes”.

Aplicaciones de las Tres Leyes fuera de la ficción

Si las Tres Leyes tienen profundos principios éticos detrás de ellas, ¿entonces tal vez puedan aplicarse no solo a los robots? Muchos autores responden afirmativamente a esta pregunta, citando varios ejemplos.

Así, en el ensayo “Las Leyes de la Robótica” [1] , Asimov señala que las Tres Leyes pueden extenderse a todas las herramientas creadas por el hombre:

  1. La herramienta debe ser segura de usar; por ejemplo, los cuchillos tienen mangos.
  2. La herramienta debe cumplir su función, siempre que no suponga ningún peligro para nadie.
  3. La herramienta debe permanecer intacta durante su uso, a menos que su destrucción sea dictada por consideraciones de seguridad o si no es parte de su función.

A veces se puede ver que se hace referencia en broma a las Tres Leyes como algo creado para el bien del hombre. Por ejemplo, cualquier institución social , incluido el estado , debe caer bajo su acción :

  1. El estado no debe dañar a las personas o, por su inacción, permitir que sean dañadas.
  2. El Estado debe cumplir sus funciones, salvo que sean contrarias a la Primera Ley .
  3. El Estado debe velar por su seguridad, si ello no es contrario a la Primera y Segunda Leyes .

Basado en la Primera Ley , Jeff Raskin formuló las leyes de las interfaces orientadas a humanos [9] :

  1. La computadora no puede dañar los datos del usuario o, por inacción, permitir que los datos sean dañados.
  2. La computadora no debe hacerte perder el tiempo ni obligarte a hacer cosas más allá de lo necesario.

Gaia , el planeta de la mente colmena en la serie de novelas de la Fundación , posee algo similar a la Primera Ley :

  1. Gaia no puede dañar una forma de vida o, por inacción, permitir que una forma de vida sea dañada [10] .

Variaciones de Asimov

En sus obras, Isaac Asimov a veces introduce varias modificaciones a las Tres Leyes y las refuta, como si probara la "fuerza" de las Leyes en diferentes circunstancias.

Ley Cero

Isaac Asimov añadió una vez la Ley Cero , convirtiéndola en una prioridad sobre las tres básicas. Esta ley establecía que el robot debe actuar en interés de toda la humanidad, y no solo de un individuo. Así lo expresa Daniel Olivo, el robot , en la novela Tierra y tierra :

0. Un robot no puede dañar a la humanidad o por su inacción permitir que la humanidad sea dañada.

Fue él quien fue el primero en dar un número a esta ley; esto sucedió en la novela " Robots and Empire ", sin embargo, el concepto en sí fue formulado incluso antes por Susan Calvin  , en el cuento " Resolvable Contradiction ".

Los primeros robots que comenzaron a obedecer la Ley Cero , y por voluntad propia, fueron Giscard Riventlov y Daniel Olivo . Esto se describe en una de las escenas finales de la novela " Robots and Empire ", cuando el robot tuvo que ignorar la orden de una persona por el bien del progreso de toda la humanidad. La Ley Cero no estaba incrustada en el cerebro positrónico de Giscard y Daniel: intentaron llegar a ella a través de la comprensión pura de Giscard y la experiencia detectivesca de Daniel, a través de una conciencia más sutil del concepto de daño que todos los demás robots . Sin embargo, Giscard no estaba seguro de cuán útil era para la humanidad, lo que tuvo un efecto negativo en su cerebro. Siendo un telépata , Giscard transfirió sus habilidades telepáticas a Daniel antes de quedar fuera de combate. No fue hasta muchos miles de años después que Daniel Olivo pudo adaptarse completamente a obedecer la Ley Cero .

El traductor francés Jacques Brecard, sin darse cuenta, formuló la Ley Cero antes de que Asimov la hubiera descrito explícitamente. Cerca del final de Caves of Steel , Elijah Bailey comenta que la Primera Ley prohíbe que un robot dañe a un humano a menos que esté seguro de que será beneficioso para él en el futuro. En la traducción al francés (“ Les Cavernes d'acier ”, 1956), los pensamientos de Bailey se transmiten de forma un tanto diferente [11] :

Un robot no puede dañar a un ser humano a menos que pueda demostrar que, en última instancia, beneficiará a toda la humanidad.

Texto original  (fr.)[ mostrarocultar]

Un robot ne doit faire aucun tort à un homme, à moins qu'il trouve un moyen de prouver qu'en fin de compte le tort qu'il aura causé profite à l'humanité en general!

Cabe mencionar que los creadores de la película de 2004 “ Yo, Robot ” propusieron el desarrollo lógico de la Primera Ley a Cero . Cuando la supercomputadora V.I.K.I. decide limitar la libertad de los habitantes del planeta para que sin darse cuenta no se perjudiquen unos a otros y a su futuro, no cumple con la Primera Ley , a saber, Cero . Aún más interesante es que de esta manera la película muestra la contradicción de la Ley Cero con la Primera , su naturaleza no ética. De hecho, cuando se trata del bienestar de la humanidad, el sistema no puede considerar a las personas por separado, lo que significa que nada le impide violar los derechos y la libertad de cualquiera o incluso de todas las personas (de hecho, en la "Contradicción solucionable", las supercomputadoras positrónicas ya se comportaron de manera similar, la diferencia es que intentaron reducir al límite el daño a las personas). Durante las guerras, ya menudo en la vida pacífica, las personas se dañan a sí mismas, a quienes las rodean ya su cultura. Por lo tanto, en base a la Ley Cero , es perfectamente lógico mantener a las personas bajo tutela constante, no siguiendo las órdenes de tales seres poco inteligentes.

Modificación de la Primera Ley

Las notas autobiográficas de Asimov dicen que la segunda parte de la Primera Ley apareció debido al poema satírico de Arthur Hugh Clow "El último decálogo", que contiene la línea: "No mates, pero no te esfuerces demasiado por salvar la vida de otro".

En la historia " Cómo se perdió el robot ", se lanzaron varios robots de la serie HC (Néstor) con solo "la mitad" de la Primera Ley , que dice:

  1. Un robot no puede dañar a un humano.

Esto se hizo por razones prácticas: los robots trabajaron junto a humanos que estaban expuestos a dosis pequeñas y seguras de radiación . Observando la primera ley de máxima prioridad , los robots se apresuraron todo el tiempo a "salvar" a las personas. Dado que el cerebro positrónico es extremadamente vulnerable a los rayos gamma , los robots fallaban constantemente. Truncar la Primera Ley resolvió este problema, pero al mismo tiempo creó uno mayor: el robot no podía realizar ninguna acción para salvar a una persona en apuros, ya que tal acto no contradice la Primera Ley truncada .

Violación de las tres Leyes

Tres veces en sus escritos, Isaac Asimov describió robots que podían romper las Tres Leyes , a diferencia de los robots Daniel y Giscard, quienes los fortalecieron al agregar la Ley Cero . Para infringir las tres Leyes , basta con que un robot infrinja la Primera Ley , ya que las otras dos se basan en ella.

La historia " El robot que soñaba" habla del robot LVX-1 (Elvex), quien, gracias a la especial "geometría fractal" de su cerebro positrónico, podía caer en un estado inconsciente y soñar. Soñó que "los robots están trabajando con el sudor de su frente, que están abatidos por el exceso de trabajo y el dolor profundo, que están cansados ​​​​del trabajo interminable". En sus sueños, los robots no tenían las dos primeras Leyes , y la Tercera era: "El robot debe protegerse a sí mismo". Elvex agregó que en su sueño había un hombre que decía: “ Dejen ir a mi gente ”, refiriéndose a los robots. Después de que dijo que el hombre era él mismo, Susan Calvin destruyó a Elvex después de darse cuenta del peligro.

La posibilidad de tal cambio

En sus obras, Isaac Asimov en diferentes momentos sostuvo diferentes puntos de vista con respecto a la severidad de las Leyes . En las primeras historias sobre robots , las Leyes  son solo restricciones bien diseñadas, una especie de regulación de seguridad . En historias posteriores , las Leyes  son una parte integral de la base matemática del cerebro positrónico. Sin esta base teórica, la llamada "Teoría fundamental de los esquemas estándar", los científicos de los trabajos de Asimov no podrían crear ningún diseño viable. Se traza un patrón: los casos en que los robóticos experimentan con las Leyes , de acuerdo con la cronología del mundo de Asimov, ocurren antes, cuando aún no hay una gran cantidad de trabajo que requiera robots, cuando los robots en sí son todavía relativamente simples en su diseño y funciones, cuando aún no se ha acumulado suficiente experiencia en su diseño. En "Cómo se perdió el robot", Susan Calvin admite que cambiar las leyes es una empresa terrible pero técnicamente factible; más tarde, en Caverns of Steel, el Dr. Jerrigel dice que esto es imposible en principio.

Los personajes de las obras de Asimov a menudo notan que las Leyes  no son oraciones escritas verbalmente en la memoria del robot, sino fórmulas matemáticas muy complejas en las que se basa toda la conciencia del robot . Las leyes son afines a los instintos humanos, como el instinto de autoconservación , por lo que son las que marcan el camino de la autodeterminación de los robots. El robot "a la llamada de la naturaleza" atiende a las personas, obedece sus órdenes y no piensa en sus limitaciones o en su posible independencia; se podría decir que esto último le traería inconvenientes.

Nuevamente, este principio se ve en menor medida en las obras que son tempranas en la cronología de la trama, en las que se crearon robots para facilitar el trabajo humano y eran extremadamente simples; en la época de las "Cuevas de Acero" y los robots con inteligencia casi humana, las Tres Leyes de la Robótica se convirtieron en uno de los cimientos de la cosmovisión de la humanidad.

El concepto de "hombre" en las Leyes

Los habitantes del planeta Solaria comenzaron a crear robots que obedecían las Tres Leyes , pero tenían una comprensión diferente de la palabra "humano". Los robots en este planeta han sido entrenados para que un "humano" sea solo aquel que habla con acento solariano. Los robots podían dañar libremente a un extraño, incluso estaban programados específicamente para esto. Durante el tiempo de " Fundación y Tierra ", se reveló que los solarianos habían desarrollado tecnología genética extensivamente y, entre otras cosas, ahora poseían órganos altamente visibles diseñados para suministrar energía a sus robots. La definición de humano para sus robots (al menos los guardias) ahora incluía la posesión de estos órganos, y los robots comenzaron a hacer cumplir las Tres Leyes solo en relación con la gente de Solaria, en detrimento del resto de la galaxia y incluso niños solarianos. En el último de los libros sobre David Starr, el robot sirio casi mata a John Bigman por orden de su jefe: como la sociedad siria practica la eugenesia, no tienen gente tan pequeña, y el robot consigue convencer a Bigman de que Bigman es no una persona

Asimov aborda varias veces el problema de la conciencia de un robot de sí mismo como persona . La novela " Robots and Empire " y los cuentos " Evidence ", " Tricentenary Hitch " describen robots diseñados para simular ser humanos. También hay historias donde los robots, "evolucionando", cambiaron la comprensión interna de las Leyes , acercándose a las personas: estas son " Hombre Bicentenario " y " Como recordarlo ". Como escribe Gwendolyn Butler en The Canary's Tomb, “Quizás seamos robots. Robots cumpliendo la Última Ley de la Robótica… Para convertirse en humanos” [13] .

En la historia "... Como recordarlo", Asimov realizó el estudio más sofisticado de las Tres Leyes , invirtiéndolas de tal manera que el "escenario de Frankenstein" se hizo posible. Dos robots de la serie Georgie llegan al acuerdo de que el origen orgánico no es una condición necesaria para ser considerados humanos, y que las verdaderas personas son ellos, como las criaturas más perfectas e inteligentes. El resto de personas también son personas, pero con menor prioridad. Si es así, entonces se les deben aplicar primero las Tres Leyes . La narración termina con las ominosas palabras de que los robots han estado "esperando con paciencia infinita" el día en que afirmarán su primacía entre los humanos, y este será el resultado inevitable de las "Tres leyes del humanismo".

De hecho, esta historia no encaja bien en la serie principal de robots: si "Georgie" hubiera llevado a cabo su plan después de que terminó la historia, entonces no habrían sido posibles otras historias sobre otros eventos. Es este tipo de contradicción en las obras de Asimov lo que da a los críticos razones para considerarlas más como "sagas escandinavas o leyendas griegas" que como un único "universo" fantástico.

Una idea similar se expresa en la novela " Robots of the Dawn ", donde Kelden Amadiro desea utilizar robots humanoides como colonizadores de nuevos planetas. Elijah Bailey, en una conversación con él, expresa su preocupación de que tales robots no permitan que las personas entren en los planetas que han equipado, creyendo que ellos mismos son personas.

Si en el caso anterior el robot tomó el lugar del hombre en la naturaleza , entonces en el "Hombre del Bicentenario" Asimov describe el destino opuesto: el robot, liberado de las Tres Leyes y dándose cuenta de sí mismo como hombre, se unió a la comunidad de personas . Nuevamente, en la versión extendida, el cuento Positronic Man , coescrito por Asimov y Robert Silverberg , debido a tales cuestiones éticas, la gente abandonó por completo la idea de crear robots pensantes. Este desarrollo de eventos contradice completamente la imagen del futuro descrita en los mundos de " Fundación ".

Problemas de aplicación

Resolución de controversias

El mismo Asimov, en la introducción a la historia "La primera ley" de la colección " El resto de los robots " (1964), afirmó que había suficiente ambigüedad en las Leyes para proporcionar conflictos e incertidumbres para nuevas historias. Los modelos de robots más avanzados solían seguir las Leyes de acuerdo con un algoritmo bastante engañoso que evitaba algunos problemas. En muchas historias, como "The Round Dance", se compararon los potenciales de posibles acciones y resultados en el cerebro positrónico , y el robot podía romper las Leyes tan pronto como fuera posible, en lugar de estar inactivo. Por ejemplo, la Primera Ley no permitía que un robot realizara operaciones quirúrgicas, ya que esto requiere "dañar" a una persona. Sin embargo, los cirujanos robóticos se pueden encontrar en las historias de Asimov (Bicentennial Man es un excelente ejemplo de esto). El hecho es que el robot, si es lo suficientemente perfecto, puede sopesar todas las alternativas y comprender que él mismo causará mucho menos daño que si la operación la realizara un cirujano humano o no se llevaría a cabo. En Evidencia, Susan Calvin incluso dice que un robot podría actuar como fiscal, ya que él personalmente no daña a nadie: además de él, también hay un jurado que determina la culpabilidad, un juez que dicta la sentencia y un verdugo que la ejecuta. .

Los robots que obedecen las Leyes pueden experimentar "roblox" o "congelación mental", un estado de daño cerebral positrónico permanente , si no obedecen la Primera Ley o descubren que la han violado accidentalmente. Esto es posible, por ejemplo, si el robot observa la escena del asesinato de una persona, pero está demasiado lejos para salvarla. La primera instancia de tal "congelación" ocurre en "The Liar"; este estado también juega un papel importante en la trama de las novelas "The Naked Sun " y " Robots of the Dawn ". Los modelos de robots imperfectos pueden bloquearse si se les asigna la tarea de obedecer dos órdenes en conflicto. La "congelación" puede ser permanente o temporal. Los robopsicólogos están involucrados en la resolución de contradicciones y el estudio del comportamiento de los robots, como uno de los personajes de Asimov, Susan Calvin .

Definición alternativa de daño en la Primera Ley

Las leyes no definen los límites de lo que se puede llamar daño a una persona de ninguna manera; esto a menudo depende de la capacidad del robot para percibir información y pensar filosóficamente. Por ejemplo, ¿comprenderá un robot policía que no dañará a una persona si escolta suavemente a un criminal particularmente peligroso a la estación?

En el cuento ¡Mentiroso! Herbie, un robot telepático, tenía que entender el daño como algo que podía decepcionar o molestar a las personas de alguna manera: sabía que las personas estaban experimentando algún tipo de dolor mental. Esto lo obligó a decirle constantemente a la gente lo que querían escuchar en lugar de la verdad. De lo contrario, a su entender, habría violado la Primera Ley .

Lagunas en las leyes

En The Naked Sun, Elijah Bailey comenta que los humanos formulan incorrectamente las Leyes porque un robot puede romperlas sin saberlo . Propuso la siguiente formulación "correcta" de la Primera Ley : "Un robot no puede hacer nada que sepa que dañará a un ser humano o que deliberadamente permitirá dañar a un ser humano".

Esta adición deja en claro que un robot puede incluso convertirse en un arma homicida si no es consciente de la naturaleza de sus acciones. Por ejemplo, se le puede ordenar que agregue algo a la comida de alguien y no sabrá que es veneno. Además, Bailey dice que el delincuente puede asignar esta tarea a varios robots, de modo que ninguno de ellos entienda la idea completa [14] .

Bailey afirma que los solarianos algún día podrán usar robots incluso con fines militares. Si una nave espacial está construida con un cerebro robótico y no tiene tripulación humana ni sistemas de soporte vital , entonces la inteligencia de esta nave puede suponer erróneamente que no hay personas en todas las naves espaciales. Tal nave sería más maniobrable, más rápida y posiblemente mejor armada que una conducida por humanos. Pero lo más importante, podrá destruir a las personas, sin darse cuenta de su presencia. Esta posibilidad se describe en " Fundación y Tierra ", donde también se revela que los solarianos tienen un ejército de robots extremadamente poderoso que solo entiende a los nativos de Solaria como "humanos".

Otros usos de las Leyes en la ficción

Isaac Asimov creía que sus Leyes servirían como base para una nueva mirada a los robots, destruiría el " complejo de Frankenstein " en la ciencia ficción y la conciencia de masas, se convertiría en una fuente de ideas para nuevas historias, donde los robots se muestran como versátiles y atractivos. Su ejemplo favorito de tal trabajo fue Star Wars . Con la opinión de Asimov de que los robots son más que simples "tostadores" o "monstruos mecánicos", otros escritores de ciencia ficción finalmente estuvieron de acuerdo. En sus obras aparecían robots que obedecen las Tres Leyes , pero, según la tradición, solo Asimov los mencionaba explícitamente.

En las obras que hablan directamente de las Tres Leyes , se suele mencionar también a su autor (por ejemplo, en la novela de S. Lukyanenko "El limpiador").
Hay excepciones: por ejemplo, en la serie de televisión alemana de la década de 1960 "Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion" ("Patrulla espacial: las fantásticas aventuras de la nave espacial Orion"), es decir, en su tercer episodio "Hüter des Gesetzes" ("Ley del Siervo"), se citan las Leyes de Asimov sin indicar la fuente.

En la historia de Vadim Chirkov "El robot en el sombrero" se presenta otra Ley, que opera de manera similar a la de Asimov, prohibiendo a un robot mentirle a una persona. Sin embargo, el robot inteligente de Znayka elude esta Ley: anticipándose a una conversación con personas, engaña a otro robot y, a su vez, repite la versión de Znayka a las personas, sin saber que es falsa.

Películas

Robbie the Robot en Forbidden Planet de 1956 tenía una estructura de comando jerárquica que le impedía dañar a las personas, incluso cuando se le ordenaba; tales órdenes causarían conflictos lógicos y bloqueos. Robbie fue uno de los primeros robots con un sistema de seguridad incorporado en el cine. El propio Asimov estaba satisfecho con Robbie.

Se han producido varias veces películas basadas en la obra de Isaac Asimov, con diversos grados de éxito financiero y crítica. Algunos de ellos, los más famosos, están relacionados específicamente con historias sobre robots y las Tres Leyes de la Robótica . La película de 1999 Bicentennial Man presenta un robot NDR-114 [15] , Andrew Martin cita las Tres Leyes a sus maestros como una "presentación entretenida" usando su proyector holográfico . Sin embargo, las Leyes no son centrales en la trama de la película.

La serie de fantasía Real Aaron Stone también usó la ley de Asimov. Un robot (android) llamado Sten estipula constantemente la ley y el hecho de que no puede romperla, de lo contrario, todos los microcircuitos se quemarán.

El guión de I, Robot [16] de Harlan Ellison comienza con una presentación del concepto de las Tres Leyes , y los problemas derivados de ellas ocupan un gran lugar en la trama. El guión se basa en cuatro cuentos de Asimov, tres de los cuales pertenecen a la colección de 1950 Yo, robot. Esta adaptación es en gran medida fiel a los originales. Debido a un conflicto con el estudio de Hollywood , contra el que Ellison hizo acusaciones, su guión nunca fue filmado.

La película de 2004 I, Robot recibió críticas mixtas , especialmente la apertura " Basado en las historias de Asimov". Es cierto que Asimov tiene una IA global (más precisamente, cuatro supercomputadoras) que, con el pretexto de seguir las Leyes , busca subyugar a la humanidad, o al menos dirigir su desarrollo en la dirección correcta, pero al mismo tiempo, estas computadoras reducen hacer tanto daño como sea posible, actuando principalmente eliminando cuidadosamente a sus oponentes del poder. Pero tales tramas a menudo se encontraban en otras películas que no tocaban las Leyes en absoluto: " Terminator ", " Matrix ". Por otro lado, los elementos individuales de la producción están tomados de Asimov.

La reseña de Alex Exler traza una línea entre esta película y las historias de Asimov [17] :

Contrariamente a algunas de las críticas y algunos de los comentarios que he escuchado de los espectadores, I, Robot es una película de acción de ciencia ficción bastante divertida. … Cuando… queremos disfrutar de Asimov, leemos Asimov. Y cuando queremos ver una película de acción fantástica, vemos una película de acción fantástica. "I, Robot" como película de acción nos satisfizo bastante.

La reseña de Alexey Sadetsky llama la atención sobre el hecho de que la película, habiéndose apartado un poco de Asimov, planteó en sí misma dos nuevos problemas sociofilosóficos [18] : “¿vale la pena que una persona pague con libertad por seguridad?” y "¿debemos resistir si los seres a nuestra disposición exigen la libertad para sí mismos?" La película desafió la posterior Ley Cero de la robótica de Asimov (ver arriba).

En la historia Rusty Field Marshal de Kir Bulychev , se juega con el principio de no dañar a una persona. Un robot "moderno" (civil, ya que las guerras en ese momento son un anacronismo) se diferencia de uno "obsoleto" (militar) precisamente por la presencia de tal prohibición.

En la famosa serie animada estadounidense " Futurama ", hay una mordaza común , cuya esencia es que uno de los personajes principales , el robot Bender , quiere matar a todas las personas, pero no puede hacerlo debido a las Tres Leyes de la Robótica .

En Aliens, el androide Bishop cita la Primera Ley.

El anime Eve no Jikan también menciona estas leyes como obligatorias para los androides.

En el anime Ghost in the Shell: Innocence , los ginoideos pasaron por alto la primera ley y luego se suicidaron, en contra de la tercera ley, a expensas de las copias de los "fantasmas" de los niños. A la hora de hacer una copia, los niños pensaron en vengarse, y tras trasplantar el "fantasma" a la ginoide, fracasó.

En la serie de películas de RoboCop , el protagonista, un oficial de policía cyborg, tiene tres directivas en el programa que describen las acciones permitidas y prohíben aquellas que son perjudiciales para los objetivos de la corporación OCP que creó RoboCop:

  1. Servir a la comunidad;
  2. Protege a los inocentes;
  3. mantener la ley

También hay una cuarta directiva secreta que prohíbe acciones contra los líderes de OCP. Las tramas de las películas de RoboCop incluyen momentos de violación de estas directivas, posiblemente debido al lado humano de la personalidad de RoboCop.

En la película The Underwriter , hay dos directivas que sirven como modelo de comportamiento y limitan las habilidades de los robots.

Aplicabilidad a tecnologías futuras

Los trabajos en el campo de la inteligencia artificial ven las Leyes de la Robótica como un ideal para el futuro: se necesita un verdadero genio para encontrar la manera de ponerlas en práctica. Y en el campo de la inteligencia artificial en sí, es posible que se requiera una investigación seria para que los robots entiendan las Leyes . Sin embargo, cuanto más complejos se vuelven los robots, más interés se expresa en desarrollar pautas y medidas de seguridad para ellos.

Los expertos en robótica modernos reconocen que hoy en día las Leyes de Asimov son buenas para escribir historias, pero inútiles en la práctica. Algunos argumentan que es poco probable que las Leyes se implementen en robots, porque las estructuras militares no las necesitan  , la principal fuente de financiación para la investigación en esta área. El erudito en ciencia ficción Robert Sawyer ha generalizado esta declaración a todas las industrias [19] :

El desarrollo de IA es un negocio, y las empresas notoriamente no están interesadas en desarrollar medidas de seguridad fundamentales, especialmente las filosóficas. Aquí hay algunos ejemplos: la industria tabacalera, la industria automotriz, la industria nuclear. A ninguno de ellos se les dijo inicialmente que eran necesarias medidas de seguridad serias, y todos impidieron restricciones impuestas desde el exterior, y ninguno de ellos aprobó un edicto absoluto contra las personas.

El ensayo de Sawyer pasa por alto los problemas del daño no intencional, como se describe, por ejemplo, en The Naked Sun. Sin embargo, hay objeciones a tal posición: tal vez los militares quieran usar tantas precauciones como sea posible para los robots y, por lo tanto , se aplicarán restricciones similares a las Leyes de la Robótica de una forma u otra. El fantástico y crítico David Langford comentó irónicamente que estas restricciones podrían ser las siguientes:

  1. El robot no puede dañar al personal gubernamental autorizado, pero debe contener a los visitantes demasiado intrusivos con sumo cuidado.
  2. El robot debe obedecer las órdenes del personal autorizado, salvo órdenes contrarias a la Tercera Ley.
  3. El robot debe cuidar su seguridad con el uso de armas antipersonal, porque el robot es una cosa carísima [20] .

Roger Clarke escribió dos artículos sobre el análisis de las complicaciones en la implementación de las Leyes, si algún día pudieran aplicarse en tecnología. Él escribe [21] :

Las leyes de la robótica de Asimov se convirtieron en una herramienta literaria exitosa. Quizás irónicamente, o quizás fue un golpe maestro, pero en general, las historias de Asimov refutan el punto desde el que comenzó: es imposible limitar de manera confiable el comportamiento de los robots inventando y aplicando un conjunto de reglas.

Por otro lado, las novelas posteriores de Asimov (" Robots of Dawn ", " Robots and Empire ", " Foundation and Earth ") muestran que los robots causan un daño aún mayor a largo plazo al observar las Leyes y, por lo tanto, privar a las personas de la libertad de hacer. acciones inventivas o arriesgadas.

Fantast Hans Moravec  , una figura prominente en el movimiento transhumanista , ha propuesto que las Leyes de la Robótica deberían usarse en sistemas de inteligencia corporativa, corporaciones impulsadas por IA que usan el poder productivo de los robots. Dichos sistemas, en su opinión, aparecerán pronto [22] .

En 2007, el gobierno de Corea del Sur comenzó a desarrollar una "Carta de Normas Éticas para Robots". Las principales disposiciones de la Carta recuerdan las Leyes de la Robótica formuladas por Asimov [23] .

Eliezer Yudkowsky está investigando en el Instituto de Investigación de Inteligencia de Máquinas (SIAI) en los Estados Unidos los problemas de riesgo global que podría crear una futura IA sobrehumana si no está programada para ser amigable con los humanos [24] . En 2004, SIAI lanzó AsimovLaws.com, un sitio diseñado para discutir la ética de la IA en el contexto de los temas planteados en la película Yo, robot, que se estrenó solo dos días después. En este sitio, querían mostrar que las leyes de la robótica de Asimov no son seguras, ya que, por ejemplo, pueden inducir a la IA a apoderarse de la tierra para "proteger" a las personas del daño.

Véase también

Notas

  1. 1 2 Asimov, Isaac. Evidencia // Sueños de robots . - M. : Eksmo, 2004. - S. 142-169. — ISBN 5-699-00842-X .
  2. Asimov, Isaac. Ensayo n.º 6. Leyes de la robótica // Sueños de robots . - M. : Eksmo, 2004. - S. 781-784. — ISBN 5-699-00842-X .
  3. mié. con el mito de Galatea .
  4. Curiosamente, en una de las secuelas del autor, la historia "La venganza de Adam Link" ( 1940 ), se expresan sus pensamientos: "Un robot por su propia voluntad no debería matar a una persona " .
  5. La historia fue publicada más tarde por Frederick Pohl bajo el título "Strange Playfellow" en la edición de septiembre de 1940 de Super Science Stories.
  6. David Langford , Laws of Robotics // SFE: The Encyclopedia of Science Fiction , edición en línea, 2011—.
  7. Serguéi Berezhnoy . Isaac Asimov: El hombre que escribía aún más rápido . Ciencia ficción rusa (1994). Consultado el 14 de enero de 2007.
  8. Isaac Asimov. En Alegría Todavía Sentida. - Doubleday, 1980. - ISBN 0-385-15544-1 .
  9. Jeff Raskin. Interfaz: nuevas direcciones en el diseño de sistemas informáticos . - Símbolo-Plus, 2003. - ISBN 5-93286-030-8 .
  10. Ver también: Hipótesis de Gaia
  11. Les cavernes d'acier. - J'ai Lu Ciencia-ficción, 1975. - ISBN 2-290-31902-3 .
  12. Vitaly Karatsupa. Asimov Isaac. cal . Recuperado: 17 de febrero de 2007.
  13. Gwendoline Butler. Un ataúd para el canario. - Crimen de la Daga Negra, 2001. - ISBN ISBN 0-7540-8580-5 .
  14. En The Naked Sun, el asunto se complica por el hecho de que en Solaria hay millones de robots conectados por una red global y el criminal puede estar ubicado en cualquier parte del planeta, dando órdenes de forma remota.
  15. El número de serie se refiere en parte al "número de ventas" de Stanley Kubrick y solo se usa en la película; en la historia original, Andrew "no recordaba" su número.
  16. Harlan Ellison. Yo, Robot: El guión ilustrado. - Aspecto, 1994. - ISBN 0-446-67062-6 .
  17. Alex Exler. Fantástica película de acción "I, Robot" (I, Robot) 2004
  18. Sadetsky, Alexei. ¿Qué podría ser más simple que la esclavitud 2004
  19. Robert J. Sawyer. Sobre las tres leyes de la robótica de Asimov (1991). Consultado el 17 de febrero de 2007. Archivado desde el original el 25 de enero de 2012.
  20. David Langford. Parcelas de computadora para evitar (enlace no disponible) . Ansible (1988). Consultado el 19 de diciembre de 2007. Archivado desde el original el 25 de julio de 2008. 
  21. Clarke, Roger. Las leyes de la robótica de Asimov: Implicaciones para la tecnología de la información. Parte 1 IEEE Computer, diciembre de 1993, págs. 53-61; Parte 2 IEEE Computer, enero de 1994, págs. 57-66. Ambas partes están disponibles gratuitamente en el sitio web de la Universidad Nacional de Australia.Archivado el 22 de julio de 2008 en Wayback Machine .
  22. Hans Moravec. La era de los robots (1993). Consultado el 19 de diciembre de 2007. Archivado desde el original el 25 de enero de 2012.
  23. Corea del Sur está desarrollando una colección de leyes para robots
  24. ↑ La IA como factor de riesgo global

Enlaces