La inteligencia artificial no necesitará de los humanos para aprender

Foto: Flickr Jaro Larnos (CC BY 2.0).

A ‘AlphaGo Zero’ solo le tomó tres días aprender lo que a los humanos costó miles de años. Sin intervención humana, el sistema interiorizó las reglas del juego del mítico juego de mesa chino “Go”, aprendió a jugar sin instrucciones y por último, creó una estrategia mientas competía contra sí mismo.

El programa dejó a un lado las enseñanzas humanas, creó sus propios movimientos y en su prueba obtuvo una apabullante victoria con un registro de 100 juegos a 0.

AlphaGo Zero no solo redescubrió los patrones y aperturas comunes que los humanos tienden a jugar... finalmente los descartó, prefiriendo sus propias variantes que los humanos ni siquiera conocen ni juegan en este momento", dijo David Silver, investigador principal de Alpha Go.

En 2016, el predecesor de ‘Zero’ sorprendió al mundo al vencer al campeón mundial del juego de mesa chino “Go”. En esta ocasión, la IA tuvo que ser entrenada por ingenieros de la división DeepMind de Google, quienes le dictaron los movimientos más usados, superando desafíos cada vez mayores en 30 millones de juegos durante varios meses.

Durante los tres días de autoentrenamiento, ‘AlphaGo Zero’ alcanzó a simular 4,9 millones de juegos. El equipo detrás de AlphaGo Zero atribuye el dominio de “Go” a la red neuronal mejorada que posee la nueva versión (un símil al cerebro humano) y al sometimiento de simulaciones de juego más avanzadas.

Sin demeritar los resultados del experimento, no se cree que esto signifique que la inteligencia artificial ya supere por completo a los seres humanos. Según los expertos, la IA sigue siendo bastante limitada al no poder realizar el mismo nivel de tareas que ejecuta un ser humano a diario.

SOBRE EL TRECE  |  SALA DE PRENSA   |  CONTACTO   |   DIRECTORIO   TÉRMINOS Y CONDICIONES  |  PQRS

Ir al contenido