Hace 8 años | Por MeneanteViajero a eldiario.es
Publicado hace 8 años por MeneanteViajero a eldiario.es

El campeonato a cinco entre AlphaGo y el campeón mundial Se-dol es tan histórico como el torneo en el que Garry Kasparov perdió contra Deep Blue en 1997, pero el reto técnico es muchas veces más difícil. Pero para entender por qué el Go era el Santo grial de la Inteligencia Artificial, hay que saber en qué no se parece al ajedrez.

Comentarios

D

#4 novecientos años quedan

D

#5 Acabas de ganarte a Internet...

D

#3 Y yo cuando un puto robot pueda beber más que yo.

D

#3 de momento

kaeldran

#3 Y tanto, hay un montón de desafíos intelectuales a los que la tecnología de IA que tenemos no puede enfrentarse y un humano sí, de momento...

Por ejemplo, hace unos meses jugar bien al go era uno de esos problemas que a una IA se le daban fatal y a un humano mucho mejor, pero ya no. Quedan muchos otros, muchísimos, algunos hasta triviales para un ser humano y jodidísimos para una IA. ¿Pero seguirán siéndolo mucho tiempo?
Lo del go, básicamente, es una evidencia más a favor de los que creen que no, que con el tiempo esas diferencias dejaran de existir. Por otro lado, una parte muy significativa de los que se postulan del lado del "jamás" lo hacen desde un punto de vista antropocéntrico que sitúa la "conciencia" como algo cuasimístico inalcanzable por una máquina por su misma naturaleza.

El articulo en si es bastante pobre, pero la idea de que un paso como este ha sido un hito importante, no porque el go sea complejo, sino porque la resolución ha venido de la mano, no de una IA lógica de fuerza bruta aplastante, sino de una IA con algoritmo autoevolutivo... da para menearla.

D

#11 Personalmente, dudo mucho que la ley de Moore se pueda alargar muchos más años, pero es un buen indicador.

Igualmente, totalmente de acuerdo con tu post, aunque desconocía algunos aspectos que nombras; ahora solo falta imitar la lentejuela de memoria externa de uno de los capítulos de Black Mirror para ampliar y ayudar a la memoria humana para dar otro gran salto.

v

#12 Sí, el concepto de memoria externa será útil. No obstante, no es tanto que el cerebro no pueda almacenar suficiente información con una resolución "apropiada", sino el hecho de que muchas veces no es capaz de evocarla a un estado consciente. Más que una memoria externa (pensada como un implante), lo más probable es que los dispositivos móviles, sincronizados con la nube, permitan gestionar los datos de sensores ubícuos que formarán parte del "quantified self", y que varios agentes IA asistan en la recuperación de la información más relevante para cada momento en base a interacciones probablemente más complejas en las que la IA prediga lo que vas a querer.

D

#13 Es una opción; pero casi que prefiero poder grabar en vídeo lo que veo (siempre o eligiendo momentos) y poder rememorarlo cuando quiera a través de realidad aumentada.

Que detrás además haya una IA que almacene lo que le parece más interesante de cada día o momento de forma automática, no me parece un mal sistema de respaldo. Pero prefiero mantener la nube alejada de mis recuerdos, así al menos me aseguro de que menos gente ve a mi pareja sudando conmigo (recalco el menos)...

v

#14 No es descabellado que en un futuro cada humano tenga acceso a almacenar 100 años de vida completos de forma multimodal a una resolución aceptable. Con una IA en aprendiendo, simultaneamente con tu vida, a saber que uso quieres hacer de ello en cada momento.

D

#12 Hace 20 años que vengo oyendo que la Ley de Moore no podra alargarse mucho más.

p

#16 Es irrelevante. Si hay algo que demuestra el cerebro es que no es una cuestión de potencia bruta, sino de organización.

powernergia

#16 Lo cual no quiere decir que se pueda alargar infinitamente.(Ya lo dijo Moore)

D

#33 Ningun crecimiento exponencial se puede prolongar indefinidamente

v

#19 Claro que simplificó. Con respecto a deep blue, se usa monte Carlos trees en vez de alpha-beta como método de prunning, por el branching factor del Go. Pero las heurísticas se aprenden. Es más, con MCTS no es necesario programar una función de coste, sólo las reglas.

v

#19 Por cierto, quiero añadir que uno de los fallos de AlphaGo es que juega en exceso por intuición y con movimientos de manual, y que falla en ver posibilidades creativas del tablero, la ventaja de la iniciativa, o en seleccionar el mejor momento para realizar los mejores movimientos. Estas últimas características las aprenden los jugadores profesionales al jugar contra una gran diversidad de jugadores con diferentes estilos, y mediante analisis discusión de partidas y estrategias con otros profesionales, lo que indica que AlphaGo está claramente sobreentrenado y sesgado por jugar en exceso contra sí mismo.

En este sentido es lo opuesto a un min-max search clásico, puesto que se fía demasiado de sus heurísticas, con algunas de ellas probablemente sobreestimando en exceso el coste real. Y por eso destaco ese aspecto del aprendizaje, que es lo que diferencia a este experimento de otros.

J

#19 Vaya, no sabía lo que dices. Que piensas de mi comentario en #40 ? mi comentario se basó solo en mi imaginación.

A veces pienso que debería ser ingeniero informático, jeje, nada mal para un abogado.

p

#41 Que es una idea similar a la que comentas, pero bastante más complicada. Hay bastante miga detrás.

De todas formas si tienes curiosidad puedes buscar por la red, ya que los algoritmos para resolver jugadas de ajedrez son muy conocidos. Podrás encontrar explicaciones a nivel divulgativo.

p

#41 Ahora bien, la parte de redes neuronales no funciona como tú crees. Una red neuronal no almacena jugadas ni nada en particular, sino que lo que hace al darle unas entradas es clasificarla en determinados tipos, en función al entrenamiento previo que haya tenido. Lo que hace la red neuronal internamente no es analizable en la práctica ya que son una serie de pesos distribuidos en una red que no representan algo concreto.

Si lo que hace esa red neuronal se tradujese a un algoritmo, sería un galimatías laberíntico de decisiones sin explicación y números arbitrarios imposible de entender (y mucho menos modificar y mantener). Por eso se utiliza este enfoque en los casos en los que las decisiones son demasiado complejas como para ser programadas con reglas lógicas fijas.

La red neuronal puede ser apoyada por otros subsistemas que le aporten jugadas de una biblioteca de jugadas, pero como tales no existen jugadas dentro de la red neuronal ni representaciones concretas de datos, sino que los números que circulan por esa red son abstracción pura. Es algo así como meter el problema en una fórmula matemática gigantesca y extrañísima sin lógica aparente, pero que acaba dando un resultado útil.

Digamos que la red neuronal es un sistema genérico para obtener resultados "a ojo" y muy rápidos en problemas en los que se haya entrenado previamente. Una especie de chuleta de examen a lo bestia, o una intuición programada, si quieres mirarlo de esa forma.

Los pesos en esa red van cambiando según va entrenándose caso por caso y toda la red se ve afectada con cada nuevo caso exitoso o fallido. Después de millones de intentos, esos pesos acaban formando una especie de formulón matemático para solucionar ese problema de forma aproximada, formulón que sería imposible de programar a mano (como se intentó sin éxito en los comienzos de la IA).

D

#11 Agradezco la información que proporcionas. Estoy en desacuerdo con dos puntos:

- La ley de Moore no tiene pinta de durar mucho más. Estamos ya cerca de los límites físicos. Solo una nueva tecnología puede cambiar esto. Si las CPU modernas son multinúcleo es para compensar que no se puede hacer una sola CPU que sea mucho más rápida.

- Las estimaciones sobre la capacidad computacional de un cerebro biológico se basan en suposiciones a lo béstia (pero que muy a lo béstia) y no les veo ninguna fiabilidad mayor que cero.

v

#32 Sí a ambas.

Con respecto a la primera, supongo que tiene que haber un límite físico, tanto en la capacidad de integración como en el consumo energético. Está por ver si ese límite está antes de 2 décadas o no, o si es viable disponibilizar esa capacidad computacional en dispositivos móviles. Creo que es bastante probable que sí se de en servidores. En cuanto a la paralelización masiva, bienvenida sea. Es algo que las redes de neuronas artificiales y los métodos del tipo Monte Carlo explotan mejor.

Con respecto a tu segunda observación, la capacidad computacional no lo es todo. En general, son los avances en software los que hacen que hoy en día se puedan solucionar más problemas de forma práctica, y no simplemente escalar el poder computacional de una aproximación por fuerza bruta. De ahí que diga que el problema fundamental sigue estando en poder aportar soluciones algorítmicas a problemas de aprendizaje sin supervisión, lo que permitiría explotar el big data en el aprendizaje automático de mejores sistemas. El internet of things y el quantified self ya están aquí, por lo que datos va a haber a cascoporro.

J

#11 Basicamente es una red neuronal que simula billones de situaciones y elige las situaciones mas efectivas de acuerdo a una serie de normas.

Pero no dejar de ser algo parecido y es que, al final, la red neuronal almacena en una base de datos los resultados satisfactorios. En el del ajedrez que mencionas dichos resultados fueron introducidos directamente haciendo mas rápido el proceso.

Basicamente, la red neuronal permite que la máquina forme una situación de probabilidad estadistica verificable, no es que la máquina piense es que sigue ejecutando parametros de acuerdo a la observación y cuando va a decidir lo consulta con su base de datos.

D

#7 jojojo pedazo cuñadada acabas de soltar nano.

p

#17 Yo he trabajado en IA. Tú de momento sólo has escrito un comentario.

D

#23 yo trabajo con cadenas de Markov

Waskachu

#24 pues yo trabajo con colonias de Rudertford y soy más listo que tú

Findeton

#7 Mientras no consigamos AGIs, no temeré una revolución robot.

rob3ro

#7 A mí que un ordenador gane a un humano en un juego de información completa estilo damas, ajedrez, go.. o lo que sea me parece interesante y muy complejo, pero es algo en cierto modo esperado teniendo en cuenta el avance en la potencia de cálculo y algorítmia/heurística. Me gustaría ver algo diferente en IA así vamos a tardar un montón en llegar a la singularidad.

D

El go no tiene nada que sea especial. Es un juego perfectamente programable. El que hasta ahora nadie se hubiera puesto en serio a hacerlo no significa nada.

La AI, sin ser ninguna maravilla, es capaz de hacer cosas mucho más difíciles.

pichorro

#2 Que sea fácilmente programable no significa que no sea tremendamente complejo. De hecho, aunque las reglas del ajedrez sean más complicadas que las del go, éste tiene una mayor complejidad dado el enorme número de combinaciones posibles, mucho mayor que en el ajedrez.

p

#6 De hecho se ha demostrado de forma práctica una y otra vez que la complejidad de las reglas de un sistema no tiene correlación con la complejidad del comportamiento que generan esas reglas. El Go es otra demostración más.

p

#2 Será todo lo programable que se quiera, de hecho algoritmos hubo durante años. La diferencia es que esos algoritmos eran una puta mierda y este no.

Y eso es debido a que el espacio del problema es demasiado grande como para ser tratable a base de fuerza bruta y heurísticos clásicos. Ha hecho falta una red neuronal y muestreo para que los heurísticos fuesen manejables a un nivel aceptable.

D

#21 Exactamente igual que se hizo con el ajedrez, solo que en el ajedrez el decidir por donde se debía profundizar más era muy sencillo.

p

#34 Si fuese exactamente igual, no habría hecho falta otro algoritmo.

ikipol

Nada de preocupante. El artículo es una chorrada

D

El profesor Falken todavía existe?

porquiño

Siempre hablan de la derrota de Kasparov, pero en realidad no perdió. Si no recuerdo mal quedaron 4-2

pichorro

#8 Eso es el primer match. El segundo lo ganó Deep Blue.

https://es.wikipedia.org/wiki/Deep_Blue_versus_Gary_Kasparov

porquiño

#9 gracias! Metiendo la pata como siempre, cosas del lunes roll