AlphaGo vs. Lee Sedol (o Google DeepMind Challenge Match ) fue un partido de go entre el 9 y el 15 de marzo de 2016 entre el programa informático AlphaGo de Google DeepMind y Lee Sedol , un profesional coreano de 9 dan . Se jugaron un total de 5 partidos. El juego se jugaba según las reglas chinas, el valor de komi era de 7,5 puntos. El control de tiempo es clásico: cada jugador tiene dos horas y 3 byoyomi de 60 segundos por juego. AlphaGo usó 1920 CPU y 280 GPU ejecutándose en una red distribuida [1] . Los juegos se transmitieron en vivo en YouTube [2] . El partido terminó con la victoria de AlphaGo con una puntuación de 4:1 [3] [4] . El evento ha sido comparado con la histórica partida de ajedrez de 1997 entre Deep Blue y Garry Kasparov , que hasta cierto punto selló el destino del ajedrez [5] [6] [7] .
El ganador del partido recibiría una recompensa de $ 1 millón; dado que AlphaGo fue el ganador, Google DeepMind dijo que el dinero del premio se donaría a causas benéficas, incluidas UNICEF y organizaciones de referencia [8] . Lee Sedol recibió $170,000 ($150,000 por participar y $20,000 adicionales por ganar uno de los juegos) [9] .
Después de ganar el partido, la Asociación de Paduk de Corea otorgó a AlphaGo el rango de go más alto, " noveno dan honorario ", por los "esfuerzos sinceros" del programa para dominar el juego [10] .
Go es un juego de mesa complejo que requiere, además de la lógica, el uso de la intuición, el pensamiento creativo y estratégico [11] [12] . Durante mucho tiempo, fue extremadamente difícil enseñar a los programas de computadora a jugar Go al nivel de un aficionado fuerte [13] . En comparación con el ajedrez , en el go, a la inteligencia artificial se le asignan más tareas, cuya solución requiere la imitación del proceso de pensamiento humano [14] . En 1965, el matemático Irving John Goode escribió:
¿Ir al ordenador? - Para programar una computadora para jugar un juego significativo de Go, y no solo jugar según las reglas, es necesario formalizar los principios de una buena estrategia o crear un programa de aprendizaje. Los principios del juego del go son mejores y más misteriosos que los del ajedrez, y dependen más de juicios de valor. Por lo tanto, creo que es aún mucho más difícil crear un programa de ordenador que juegue al Go de forma inteligente que un programa de ajedrez [15] .
Hasta 2015 [16] , los mejores programas de Go solo podían alcanzar el nivel de dan amateur [17] . A la computadora le fue mejor en el tablero 9x9, donde algunos programas pudieron superar a los jugadores profesionales. Antes de la llegada de AlphaGo, algunos desarrolladores afirmaban que las computadoras nunca podrían vencer a los mejores jugadores humanos [18] . Elon Musk , uno de los primeros inversores de Deepmind, dijo en 2016 que, según los expertos, la inteligencia artificial está a 10 años de vencer al mejor de los jugadores profesionales [19] .
La partida de AlphaGo contra Lee Sedol se puede comparar con la partida de ajedrez de 1997 entre el programa Deep Blue y Garry Kasparov , donde la victoria del programa de IBM sobre el campeón reinante se convirtió en el punto de partida simbólico de una nueva era en la que las computadoras superaron a los humanos en ajedrez [20]. ] .
AlphaGo tiene diferencias significativas con respecto a sus programas predecesores. Utiliza redes neuronales , donde las estimaciones heurísticas no se basan en valores específicos de variables codificadas por personas, sino que en gran medida son extraídas por el propio programa, a través de decenas de millones de visualizaciones de juegos jugados y juegos propios con él mismo [16] [21 ] [22] . Incluso el propio equipo de desarrollo de AlphaGo no puede especificar cómo AlphaGo evalúa la posición en el juego y elige su próximo movimiento [23] . El método Monte Carlo también se ha convertido en una de las principales formas de aumentar la eficiencia del programa en la elección de movimientos. Al crear el programa, se utilizaron datos de la teoría del reconocimiento de patrones y el aprendizaje automático [16] .
A principios de 2016, se publicaron materiales de que, en octubre de 2015, AlphaGo derrotó al tres veces campeón europeo de Go Fan Hui (2º dan profesional) con una puntuación de 5-0; así, por primera vez, la inteligencia artificial derrotó a un jugador profesional en un tablero de 19x19 sin hándicap [24] [25] . Algunos expertos señalaron una gran brecha en el nivel de juego entre Fan Hui y Li Sedol, el dueño del rango más alto: 9° dan profesional y muchos títulos ganados [26] . Anteriormente, los programas informáticos Zen y Crazy Stone podían derrotar a los jugadores profesionales con una ventaja inicial de cuatro o cinco piedras [27] [28] . El investigador canadiense de teoría de juegos e inteligencia artificial Jonathan Schaeffer, después de la victoria de AlphaGo sobre Fan Hui, comparó el programa con un "niño prodigio" que carece de experiencia y afirmó que los logros reales comenzarán cuando el programa juegue con un verdadero jugador superior; Li Sedol predijo la victoria en el partido [25] Lee Hajin , un jugador profesional y secretario general de la Federación Internacional de Go , dijo que AlphaGo y Lee Sedol tienen las mismas posibilidades de ganar el próximo partido [25] .
Después de su derrota, Fan Hui afirmó que gracias a este partido, comenzó a jugar mejor y comenzó a ver cosas en el juego que antes no había notado; en marzo de 2016, la clasificación mundial de Fan Hui había subido unas 300 posiciones [29]
Los expertos en Go encontraron varios errores cometidos por AlphaGo en las partidas contra Fan Hui, en particular, al evaluar la posición en todo el tablero en lugar de momentos tácticos individuales; sin embargo, al comienzo del partido contra Lee Sedol, no se sabía cuánto había mejorado el programa desde entonces [26] [30] . AlphaGo no se ajustó específicamente para el estilo de juego de Lee Sedol, lo que habría sido difícil de hacer de todos modos, ya que el "entrenamiento" de AlphaGo implicó ver decenas de millones de juegos; unos pocos cientos o miles de partidos de Lee Sedol no fueron suficientes para cambiar el estilo de juego del programa. En cambio, AlphaGo analizó los juegos de jugadores aficionados fuertes que jugaban en servidores de Internet y luego jugó contra sí mismo; no había juegos de Lee Sedol en la base de datos de entrenamiento de AlphaGo [31] [32] .
En una entrevista antes del partido, Lee Sedol predijo que ganaría fácilmente con un puntaje de 4-1 o incluso 5-0, luego Google refinaría AlphaGo durante 2-3 años, después de lo cual querrían vengarse de él. En este caso, será muy interesante jugar con una versión actualizada de AlphaGo, creía Lee [33] [34] .
Lee Sedol, un jugador profesional de 9 dan go [35] , es considerado uno de los jugadores más fuertes en la historia del go [36] . Su carrera comenzó en 1996 cuando fue ascendido a 1er Dan a la edad de 12 años, y desde entonces ha ganado numerosos títulos de Go [37] . El estilo de Lee Sedol se caracteriza por movimientos creativos poco ortodoxos [38] . Al predecir su victoria incondicional [38] , Lee Sedol, unas semanas antes del partido, se convirtió en el dueño de uno de los principales títulos coreanos de go: Myeongin [39] .
AlphaGo es un programa informático creado por Google DeepMind . El algoritmo AlphaGo utiliza una combinación de los últimos avances para encontrar la estrategia óptima en el árbol del juego con las últimas técnicas de aprendizaje automático combinadas con el aprendizaje intensivo de los juegos de las personas y el entrenamiento mientras se juega con uno mismo [16] . Inicialmente, AlphaGo fue entrenado para imitar el juego humano mediante el estudio de muchos juegos jugados tanto por profesionales como por aficionados fuertes, incluida la base de datos del servidor KGS de aproximadamente 30 millones de movimientos de 160 mil juegos de jugadores de 6 a 9 dan [16] [40 ] . Después de alcanzar un cierto nivel en estrategia y táctica, el programa pasó a jugar contra sí mismo y al aprendizaje por refuerzo [41] . El sistema no utiliza una base de datos de movimientos. Como explicó uno de los creadores del programa, [23] ,
Aunque hemos programado esta máquina, no sabemos qué movimiento hará. Sus movimientos son un fenómeno emergente que es el resultado del entrenamiento. Simplemente creamos series de datos y algoritmos de aprendizaje. Pero los movimientos a los que ella recurre no están en nuestras manos, y mucho mejores de lo que nosotros, como jugadores, podríamos elegir.
La versión del programa utilizada en el partido contra Li Sedol usó la misma potencia informática que en los juegos contra Fan Hui: 1920 CPU y 280 GPU [1] . En mayo de 2016, Google anunció que AlphaGo estaba usando TPU , un procesador desarrollado por Google específicamente para aprendizaje automático, [42] [43] en entrenamiento .
Cinco juegos del partido tuvieron lugar el 9, 10, 12, 13 y 15 de marzo de 2016 en Seúl [44] .
Los juegos se jugaron de acuerdo con las reglas chinas , el komi fue de 7,5 puntos; control de tiempo - 2 horas de tiempo regular para cada jugador 3 períodos byoyomi de 60 segundos [9] . Los juegos se llevaron a cabo en un salón cerrado en presencia de tres observadores oficiales, entre los que se encontraba Fan Hui. Durante los partidos no se registraron incidentes que dieran lugar a la intervención de observadores.
Los partidos se transmitieron en vivo en YouTube , junto con comentarios en vivo del juego en inglés de Michael Redmond [45] (el único jugador no asiático con un dan profesional de 9 [46] ) y en coreano de Yoo Changhyuk , Song Taegon y otros. Profesionales coreanos [47] [48] [49] . Aya Huan (jugadora amateur de 6 dan y miembro del equipo de desarrollo de DeepMind) puso piedras de goban para AlphaGo [6] . El trabajo del programa se llevó a cabo utilizando Google Cloud Platform , el servidor estaba ubicado en los EE . UU . [50] .
Los desarrolladores decidieron usar una versión "fija" del programa antes de cada juego, por lo que no usó los juegos jugados en este partido para el autoaprendizaje y no se adaptó al estilo de juego de Lee Sedol, redefiniendo cada vez su estrategia [51] .
El ganador del partido recibió $ 1 millón como recompensa. Representantes de Google DeepMind dijeron que si AlphaGo gana, planean donar este dinero a fundaciones benéficas (incluyendo UNICEF ) y organizaciones involucradas en el desarrollo de Go [8] . Lee Sedol recibió $150,000 por participar en el partido y $20,000 por victorias en sets individuales [8] [9] .
El juego # | Negro | Blanco | Resultado | la fecha | se mueve | Tiempo dedicado [aprox. una] |
---|---|---|---|---|---|---|
una | Lee Sedol | Alfa ir | 0-1 (rendido) | 9 de marzo de 2016 | 186 | Lee Sedol: 1 hora 32 minutos - AlphaGo: 1h. 55 minutos |
2 | Alfa ir | Lee Sedol | 1-0 (rendido) | 10 de marzo de 2016 | 211 | Lee Sedol: 2 horas - AlfaGo: 2h. |
3 | Lee Sedol | Alfa ir | 0-1 (rendido) | 12 de marzo de 2016 | 176 | Lee Sedol: 2 horas - AlphaGo: 1h. 51 minutos |
cuatro | Alfa ir | Lee Sedol | 0-1 (rendido) | 13 de marzo de 2016 | 180 | Lee Sedol: 2 horas - AlphaGo: 1h. 59 minutos |
5 [aprox. 2] [52] [53] | Lee Sedol | Alfa ir | 0-1 (rendido) | 15 de marzo de 2016 | 280 | Lee Sedol: 2 horas - AlfaGo: 2h. |
Puntuación general: AlphaGo - Lee Sedol: 4-1 |
Al comentar sobre el primer juego del partido, tanto Cho Hansung (noveno dan profesional) como Michael Redmond notaron que AlphaGo había mejorado significativamente en comparación con el partido de octubre contra Fan Hui [54] . Ya en la etapa de fuseki , quedó claro que el programa estaba jugando al nivel de los mejores jugadores humanos; Nie Weiping (Pro 9.° dan, China) sugirió que AlphaGo juega con el poder del 6.° o 7.° dan en fuseki y del 13.° al 15.° dan en tuban [55] . El propio Lee Sedol, tras perder el segundo juego, dijo: “Ayer me sorprendió, pero hoy no tengo palabras” [56] . Después de la tercera derrota de Lee Sedol, AlphaGo ganó el partido antes de lo previsto y los comentaristas acordaron que todavía había esperanza de una victoria humana [57] . Ke Jie , quien en ese momento lideraba la clasificación de jugadores y también desafió a AlphaGo, declaró que comenzó a dudar de su victoria sobre el programa [58] . Se notaron errores en los juegos por parte del programa; Demis Hassabis declaró que serán analizados cuidadosamente, y que AlphaGo aparentemente "no conoce algunos de los tesuji clásicos y comete errores tácticos", lo que quedó claro después de que el juego perdió, cuando el programa, después del movimiento ganador clave de Lee Sedol, comenzó a hacer movimientos ilógicos en lugar de rendirse [59] . Después del partido, Lee Sedol declaró que fue derrotado mentalmente, pero no técnicamente [60] . El programa mostró una habilidad para las soluciones creativas, lo que sorprendió a muchos jugadores (por ejemplo, la jugada número 37 en el segundo juego); algunos movimientos contradecían la teoría clásica del Go, pero demostraron su eficacia en el partido, algunos profesionales comenzaron a utilizar estos hallazgos en sus juegos [23] . Cho Hye-young (noveno dan profesional) declaró que le gustaría aprender el juego de AlphaGo ya que "lo sabe todo" [61] . El propio Lee Sedol decidió cambiar algunos aspectos de su juego después del partido [60] . Los comentaristas durante el partido estuvieron de acuerdo en que AlphaGo estaba cometiendo errores y estaban seguros de que eventualmente se quedaría sin territorio para ganar [23] , pero al final, los movimientos que inicialmente parecían débiles llevaron a la victoria [57] .
Momentos clave de las fiestasDurante los juegos, los observadores notaron cuatro movimientos excepcionales que influyeron en el resultado de los juegos; Lee Sedol comentó sobre ellos en una serie de artículos en Dong-a Ilbo [62] :
Juego 1 : El movimiento que golpeó a Lee Sedol. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Invasión, mueve 102 [63] . |
Segundo juego : Un movimiento creativo inesperado del programa [64] . | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Movimiento 37, una "patada en el hombro" rechazada por la teoría de juegos clásica. |
Tercer juego : Impresionante contraataque [57] . | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Move 32 desarrolla el ataque en el juego. |
Juego 4 : Movimiento divino de Lee Sedol . | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Después de jugar tesuji (movimiento 78) , la puntuación de AlphaGo cambió drásticamente [65] . |
En el primer juego, que tuvo lugar el 9 de marzo, ganó AlphaGo (Blanco). Lee Sedol mantuvo el juego bajo control la mayor parte del tiempo, el programa aprovechó durante los últimos 20 minutos, obligando a Lee a someterse [63] . Después del juego, Lee declaró que cometió un error crítico al comienzo del juego y que la estrategia del programa en la etapa inicial del juego fue "excelente", y que la inteligencia artificial hizo un movimiento inusual que una persona haría. nunca juegues [63] . El crítico del sitio web de Go Game Guru , David Omerod, señaló que el séptimo movimiento de Lee Sedol fue "un movimiento extraño hecho para probar el poder de AlphaGo en fuseki ", y que el movimiento de retorno del programa fue "preciso y eficiente"; en su opinión, la primera parte del juego se dejó a AlphaGo, y Lee comenzó a recuperar la ventaja con el movimiento 81, y luego hizo los movimientos "dudosos" 119 y 123, seguidos por el 129, lo que condujo a la derrota [54] . Cho Hansung , quien comentó sobre el juego, notó el gran progreso de AlphaGo en comparación con el partido contra Fan Hui en octubre de 2015 [54] . Michael Redmond señaló que el estilo del programa se volvió más agresivo en comparación con los juegos contra Fan Hui [66] .
En opinión de Kim Sungryong (noveno dan profesional), Lee Sedol se sorprendió por el movimiento 102 [67] , después de lo cual pensó en el movimiento de regreso durante más de 10 minutos [67] . Lee Sedol admitió la derrota en la jugada 186, después de unas tres horas y media de juego, aunque todavía le quedaban 28 minutos y 28 segundos en su reloj [67] .
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Movimientos 1-99 |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mueve 100-186 |
En el segundo juego, que tuvo lugar el 10 de marzo, AlphaGo ganó con negras. Después del juego, Lee Sedol afirmó que "AlphaGo mostró un juego casi perfecto" [68] y que "desde el comienzo del juego, no sintió ni un solo momento en el que estaría a la cabeza" [69] . Uno de los creadores del programa, Demis Hassabis, afirmó que el sistema estaba seguro de la victoria desde la mitad del juego, cuando incluso los profesionales que comentaban el juego no podían determinar quién estaba adelante [69] .
Michael Redmond señaló que el curso 37 del programa fue "creativo" y "único" [23] . Le tomó a Lee Sedol un período de tiempo inusualmente largo para responder [23] . Ahn Yong-gil (octavo dan profesional) describió el movimiento No. 37 como "un golpe de hombro raro e intrigante", pero señaló que el movimiento de regreso de Lee fue "exquisito". Afirmó que el control del juego había pasado de un jugador a otro varias veces, y en particular señaló las jugadas del programa No. 151, 157 y 159, calificándolas de "brillantes" [64] .
AlphaGo se desvió de la sabiduría convencional en este juego y mostró un enfoque más amplio, que los profesionales de Go describieron como aparentes errores a primera vista, de hecho, ejecutando una estrategia de largo alcance [70] . Los creadores del programa explicaron que AlphaGo no está tratando de maximizar la cantidad de puntos o la cantidad de ganancias, sino la probabilidad de ganar [23] [61] : Si AlphaGo tiene que elegir entre ganar 20 puntos con 80% de probabilidad o ganar 1 punto con 99% de probabilidad, elegirá lo último, incluso si eso significa perder puntos [23] . Por ejemplo, parece que la jugada 167, que le da a Lee Sedol una oportunidad de pelear, fue considerada por los comentaristas como un error obvio; Ahn Yong-gil declaró que "cuando AlphaGo hace un movimiento que parece débil, podemos considerarlo como un error, pero tal vez sería más exacto considerar ese movimiento como una declaración de victoria". [57] .
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Movimientos 1-99 |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mueve 100-199 |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mueve 200-211 |
En el tercer juego, celebrado el 12 de marzo, AlphaGo ganó y ganó todo el partido antes de lo previsto [71] .
Después del segundo juego, los jugadores profesionales aún expresaron sus dudas sobre si AlphaGo es un jugador tan fuerte como una persona. Después del tercer juego, según los analistas, estas dudas se disiparon, se notó la habilidad del programa en la lucha libre: con el ataque aparentemente severo de Lee Sedol, no recibió ventajas de este ataque [57] .
Ahn Yong-gil y David Omerod afirmaron que AlphaGo es "más fuerte que cualquier jugador humano que conozcamos" [57] . Resultó que AlphaGo es capaz de controlar la situación cuando se realizan ko-fighting , lo que anteriormente se consideraba una debilidad significativa de la mayoría de los programas que juegan Go, en los dos juegos anteriores no hubo ko-fighting importantes en el tablero [72] . También notaron el movimiento 148 del programa: en medio de una difícil pelea de ko, AlphaGo, teniendo "confianza" en ganar la pelea, hizo un gran movimiento en otra parte del tablero [57] .
Li, jugando con negras, eligió High Chinese Fuseki y creó una esfera de influencia que AlphaGo invadió en el movimiento 12, después de lo cual el programa pudo defender a su débil grupo invasor [57] . Según An Yong-gil, los 31 movimientos de Lee pueden haber sido la razón de su derrota [57] , Andy Jackson ( American Go Association ) decidió que el resultado del juego ya estaba decidido en el movimiento 35 [61] . En el movimiento 48, AlphaGo había tomado el control del juego y obligó a Lee Sedol a realizar movimientos defensivos. El contraataque de Lee en los movimientos 77-79 no tuvo éxito, en el movimiento 90 el programa simplificó la posición en el tablero, después de lo cual adquirió una gran cantidad de territorio en el lado inferior [57] . Lee volvió a intentar lanzar un ataque, pero los movimientos del programa eran inconfundibles. En el movimiento 131, trató de organizar una pelea de ko, lo que provocó que el programa cometiera un error. En el movimiento 176, Lee Sedol renunció [57] .
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Movimientos 1-99 |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trazos 100-176 (122 en 113, 154 en , 163 en 145, 164 en 151, 166 y 171 en 160, 169 en 145, 175 en ) |
El cuarto juego, realizado el 13 de marzo, terminó con la victoria de Lee Sedol. Según Demis Hassabis, el programa se equivocó en la jugada 79, cuando, según sus propias estimaciones, la probabilidad de su victoria era del 70%; en el movimiento 87, este valor cayó bruscamente [73] [74] . David Omerod describió los movimientos del programa de 87 a 101 como errores típicos de un programa basado en el método Monte Carlo [65] : el motor de búsqueda intenta cortar algunas secuencias que no están relacionadas con una situación particular; en algunos casos, esto puede conducir al hecho de que el programa corta los movimientos correctos y ya no puede considerarlos en el futuro [65] .
En este juego, Lee Sedol eligió la estrategia amasi (estilo orientado al territorio, que permite al enemigo ocupar puntos clave de influencia, pero al mismo tiempo el propio jugador recibe un territorio garantizado, después del cual puede intentar romper la influencia del enemigo) , decidiendo ganar territorio por los lados, no por el centro, frente a la estrategia de AlphaGo de ganar con muchas pequeñas adquisiciones [65] [75] . Al optar por tal estrategia, Lee Sedol esperaba llevar al oponente a una situación de all-in, lo que podría ser un punto débil probable en un programa cuya fortaleza es la evaluación del intercambio; en tal situación, la capacidad de AlphaGo para identificar las ventajas más pequeñas no tendría un fuerte impacto en la probabilidad de ganar [65] .
Los primeros 11 movimientos fueron idénticos al comienzo del segundo juego, donde Lee también jugó con blancas. En la etapa de fuseki, Lee se centró en ganar territorio en las esquinas y los lados del tablero, lo que permitió que AlphaGo construyera influencia en la parte superior y en el centro. Después de eso, Lee invadió la zona de influencia de AlphaGo (movimientos 40-48), siguiendo los principios de amasi . AlphaGo sacrificó cuatro piedras y tomó la iniciativa (movidas 47-69). En respuesta a los movimientos de Lee Sedol del 72 al 76, el programa no cometió errores y los comentaristas comenzaron a declarar que el juego volvería a ser la derrota de Lee, sin embargo, el movimiento 78 (que era tesuji en esta situación) y la combinación que siguió hasta la jugada 82 cambió completamente el resultado del juego [65] . La jugada, que permitía dividir al rival por el centro, complicaba el juego [76] . Los movimientos 83 y 85 de AlphaGo fueron aceptables, pero luego, desde los movimientos 87 al 101, el programa realizó una serie de movimientos débiles y francamente malos. En el movimiento 92, Lee Sedol tomó la delantera del juego, y Ahn Yong-gil describió el movimiento 105 como el movimiento final que condujo a la derrota del programa; AlphaGo no pudo recuperar los puntos perdidos y renunció después del movimiento 180 [65] . AlphaGo estimó que su probabilidad de ganar era inferior al 20 % [76] .
Gu Li (noveno dan profesional, China) calificó el movimiento 78 de Li Sedol como un "movimiento divino" (en la terminología del juego de Go , un movimiento especial, único verdadero y brillante que ocurre "una vez en la vida", la mayoría de las veces en un momento crítico del juego) y noté que no vi este movimiento en absoluto [65] . Ahn Yong-gil declaró que el juego era "la obra maestra de Lee Sedol y casi seguro que se hará famoso en la historia de Go" [65] .
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Movimientos 1-99 |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mueve 100-180 (177 pulgadas , 178 pulgadas ) |
De acuerdo con los términos del partido, quién jugaría con negras en el último juego se decidiría por sorteo. Sin embargo, en una conferencia de prensa después del cuarto juego, Lee Sedol declaró que pensaba que AlphaGo era más fuerte cuando jugaba con blancas, por lo que le gustaría jugar con negras en el juego final, especialmente porque ya había ganado con blancas. Los representantes de AlphaGo estuvieron de acuerdo, por lo que no hubo empate [52] [53] .
En el último juego jugado el 15 de marzo, el ganador fue AlphaGo (blanco) [77] . Hasta el final, una lucha igualitaria estaba ocurriendo en este juego. Demis Hassabis afirmó que desde el principio el programa cometió un grave error, lo que llevó a una pelea tan igualada [77] .
Jugando con negras, Lee Sedol eligió un fuseki similar al que jugó en el primer juego del partido, luego de lo cual cambió a una estrategia territorial que lo llevó a la victoria en el juego anterior. El resultado parecía parejo hasta los movimientos 48 a 58, donde AlphaGo, jugando movimientos forzados innecesarios, perdió ko-threats y aji , permitiendo que Lee Sedol tomara la delantera [78] . Michael Redmond sugirió que lo más probable es que el programa no haya visto el famoso tesuji : los jugadores experimentados suelen conocer esa combinación de movimientos, pero el programa tendría que calcularla desde el principio [77] .
En el movimiento 90, habiendo respondido inequívocamente a los movimientos de ataque de Lee Sedol, el programa restableció el equilibrio en el juego, después de lo cual realizó una serie de movimientos que David Omerod calificó de "inusuales... pero astutamente impresionantes" y les permitió capturar un ligera ventaja [78] . Lee trató de recuperar los puntos, pero el programa respondió sin lugar a dudas. Ahn Yong-gil destacó los movimientos 154, 186 y 194. En la etapa de yose , AlphaGo también jugó sin problemas, conservando el liderazgo territorial, lo que obligó a Lee Sedol a renunciar en el movimiento 280 [78] .
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Movimientos 1-99 |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mueve 100-199 (118 en 107, 161 en ) |
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Carreras 200-280 (240 en 200, 271 en , 275 en , 276 en ) |
Las transmisiones en vivo de los juegos del partido y su análisis se realizaron en coreano , chino , japonés e inglés y ruso . La transmisión fue en coreano en Baduk TV [79] . La primera entrega fue comentada en chino por Gu Li y Ke Jie para Tencent y LeEco respectivamente, con 60 millones de espectadores [29] . El partido fue transmitido en línea en inglés por Michael Redmond y Chris Garlock, vicepresidente de la American Go Association ; el promedio de espectadores fue de unas 80 mil personas; el mayor número de espectadores se registró al final de la 1ª entrega y ascendió a 100 mil [80] . El análisis de los juegos en YouTube estuvo a cargo de Cho Hye -young (9° dan) y Kim Myeongwan (9° dan) [61] . En Rusia, las transmisiones en vivo de los juegos del partido con análisis fueron realizadas por 3 dan profesionales Alexander Dinershtein (1 juego) [81] [82] , Ilya Shikshin (1 dan profesional) y la múltiple campeona europea entre mujeres Natalia Kovaleva (2- 5 juegos) [83] .
La victoria de AlphaGo fue un evento significativo en el campo de la investigación de la inteligencia artificial [84] . Anteriormente, enseñar a una computadora a jugar Go se consideraba fuera del alcance de las tecnologías existentes y el nivel de su desarrollo [84] [85] [86] . La mayoría de los expertos se inclinaron a creer que pasarían unos 5 años antes de que apareciera el programa de nivel de potencia AlphaGo [87] , algunos expertos creían que pasarían incluso 10 años antes de que la computadora pudiera derrotar a los campeones de Go [88] [89] . A principios de 2016, la mayoría de las predicciones apuntaban a la victoria de Lee Sedol [84] .
Cuando la computadora comenzó a vencer a los jugadores humanos más fuertes en damas , ajedrez y ahora, los logros de los programas de computadora en el campo de los juegos de mesa populares ya no se consideran un logro tan significativo y un punto de inflexión en la historia del desarrollo de inteligencia artificial en comparación con años anteriores; El desarrollador de Deep Blue , Murray Campbell calificó la victoria de AlphaGo como "el final de una era... los juegos de mesa están casi terminados y es hora de seguir adelante" [84] . Los desarrolladores de DeepMind han declarado que están considerando organizar una partida de StarCraft II entre su software y Tim Morten, un campeón de StarCraft II [90] [91] . Los juegos de mesa con información incompleta ( póquer , bridge ) también pueden convertirse en objeto de investigación sobre las posibilidades de los programas informáticos [92] [93] .
En comparación con Deep Blue o Watson , los algoritmos de AlphaGo están diseñados para tareas más amplias, lo que puede indicar que también se han producido avances en el campo del desarrollo general de la inteligencia artificial [94] ; la victoria de AlphaGo podría ser el impulso para el desarrollo de programas con objetivos más amplios. En marzo de 2016, el investigador británico Sewart J. Russell afirmó que "las técnicas de inteligencia artificial están avanzando mucho más rápido de lo esperado, lo que hace que la cuestión de los resultados a largo plazo sea más relevante", y agregó que "garantizar que los sistemas de IA cada vez más poderosos permanezcan estaría bajo la supervisión de control completo del hombre... hay mucho trabajo por hacer” [95] . El físico Stephen Hawking ha advertido que los futuros sistemas de IA autoevolutivos podrían llevar a que los humanos sean capturados inesperadamente por máquinas [96] , algunos científicos, en particular Jean-Gabriel Ganasia, afirman que "cosas como el 'sentido común'... nunca crean' rechazar tal escenario [97] ; Ganasia no ve ninguna razón para “hablar de miedos. Al contrario, da esperanza en muchas áreas, por ejemplo, en el cuidado de la salud y la exploración espacial” [95] . Richard Sutton dice que "la gente no debe tener miedo... pero deben prestarle atención" [98] .
Antes de la publicación del artículo en la revista Nature en enero de 2016, varias organizaciones ya estaban investigando redes neuronales para crear programas que jugaran Go, en particular, Facebook estaba desarrollando el programa Darkforest , posteriormente el código del programa se puso a disposición del público. [99] [ 100] . Tras el partido, se inició el desarrollo de los programas de la competencia de AphaGo, entre los que destacan Deep Zen Go y Fine Art.
El programa Deep Zen Go se desarrolló anteriormente con el nombre de Zen, pero fue después del éxito de AlphaGo que el desarrollador agregó un elemento de aprendizaje profundo a Zen . En noviembre de 2016, se llevó a cabo un partido entre Deep Zen Go y el jugador con más títulos de Japón, Cho Chikun [101] [102] . El partido terminó con la victoria del hombre con una puntuación de 2: 1 [103] . En marzo de 2017, se llevó a cabo el "Torneo de los cuatro", donde los jugadores más fuertes de Japón, China y Corea ( Yuta Iyama , Mi Yutin y Park Jong-hwan ) y Deep Zen Go pelearon [104] , según los resultados del partido, la computadora ganó un juego de tres (contra Yuta Iyama) [105] [106] .
El programa de Bellas Artes fue desarrollado por la empresa china Tencent . En marzo de 2017, ganó el Software Go Championship, que, sin embargo, no contó con AlphaGo; Deep Zen Go obtuvo el segundo lugar. Anteriormente, en enero de 2017, Fine Art pudo vencer varias veces al jugador de Go humano más fuerte, Ke Jie , quien más tarde también jugó con AlphaGo , perdiendo y considerando inútiles más juegos con inteligencia artificial [107] .
El juego de Go, anteriormente considerado un juego puramente asiático, no tan común en los países occidentales, ha ganado gran popularidad en varios países del mundo debido al hecho de que millones de personas vieron y discutieron el partido [84] . Según Demis Hassabis, 280 millones de personas vieron el partido, se publicaron 35.000 artículos en la prensa y las ventas de tableros de go se multiplicaron por diez [108] .
Muchos de los mejores jugadores notaron que los movimientos realizados por el programa no son estándar; algunos movimientos inicialmente parecían dudosos, pero en el transcurso del juego mostraron su efectividad [88] . Mientras los jugadores intentan aprender y adoptar los mejores movimientos de otros juegos, AlphaGo hace sus propios movimientos originales [84] . AlphaGo ha mejorado significativamente en comparación con el partido contra Fan Hui, sin embargo, después de su derrota, Li Sedol afirmó que el juego del programa aún no es perfecto [109] [110]
El jugador chino Ke Jie , que lideraba el ranking mundial, declaró antes del partido que era capaz de derrotar a AlphaGo, pero no quería jugar con ella, ya que el programa comenzaría a "copiar su estilo" [111] . Después de los primeros tres juegos del partido, Ke Jie ya admitió que "podría perder" [112] , pero después del cuarto juego, nuevamente comenzó a hablar con confianza sobre su victoria, argumentando que si el desempeño del programa en el cuarto juego del partido es "su verdadera fuerza, entonces no merece jugar con él" [113] .
El árbitro del partido contra Fan Hui, Toby Manning, y el secretario general de la Federación Internacional de Go, Li Hajin , afirmaron que en el futuro, los jugadores podrán aprender de la computadora, averiguar dónde cometieron errores. en el juego y mejorar sus habilidades de juego [110] .
Después del partido, Lee Sedol se disculpó por su pérdida y afirmó que "subestimó las habilidades de AlphaGo y se sintió impotente" [84] . Hizo hincapié en que el resultado del partido fue "la derrota de Lee Sedol " y no "la derrota de la humanidad " . Lee reconoció que su pérdida era inevitable, pero que "los robots nunca entenderán la belleza del juego como lo hacen los humanos" [96] . Lee calificó el resultado de la cuarta entrega como "una victoria invaluable que no cambiaría por nada" [114] . Lee Sedol declaró que aprendió mucho jugando con AlphaGo y su estilo se volvió más flexible; se dio cuenta de lo débil que puede ser la intuición humana, y su habilidad para predecir los próximos movimientos del oponente mejoró enormemente [115] .
La Asociación Coreana de Paduk otorgó a AlphaGo el rango honorario de 9º dan profesional por "esfuerzos sinceros para dominar los fundamentos taoístas del go y lograr un nivel de juego cercano al divino" [10] .
Tras la finalización del partido, el 17 de marzo de 2016, representantes del gobierno de la República de Corea anunciaron que iban a invertir 863 millones de dólares (1 billón de won coreanos) en investigación de inteligencia artificial durante los próximos cinco años [116]
Muchos jugadores expresaron su deseo de convertirse en el próximo oponente de AlphaGo [117] , sin embargo, entre los candidatos más probables se encontraba Ke Jie , quien afirmó haber ganado el programa [118] . El partido con Ke Jie tuvo lugar del 23 al 27 de mayo de 2017, AlphaGo ganó los tres juegos [119] [120] [121] .
Vamos | |||||
---|---|---|---|---|---|
| |||||
Inventario | |||||
Normas |
| ||||
Etapas del juego | |||||
Terminología | |||||
Altas | |||||
Organizaciones | |||||
Títulos | |||||
Torneos internacionales |
| ||||
ir en el arte |
| ||||
Otro | |||||
|