Innovación

Google AI supera a los humanos en más juegos de arcade clásicos que nunca

Los investigadores de Google DeepMind han mejorado el rendimiento de su inteligencia artificial de autoaprendizaje para superar a los humanos en una gama más amplia de juegos. Pero todavía tiene problemas con la Sra. Pac-Man.

Google DeepMind ha revelado nuevas mejoras en sus sistemas de aprendizaje automático y aquí, en 2014, es posible jugar a los clásicos juegos de arcade de la década de 1980.

Las primeras computadoras vencieron a los humanos en el ajedrez, y ahora nos ganan a nosotros en los videojuegos.

La IA de DeepMind de Google fue noticia el año pasado cuando se demostró en el clásico juego de arcade Pong. Desde entonces, Google ha estado perfeccionando las habilidades del joystick del algoritmo hasta el punto en que puede vencer a los jugadores humanos expertos en aún más juegos en el Atari 2600, una consola de los años 80.

Ayer, los investigadores de DeepMind revelaron que las mejoras en el software de aprendizaje por refuerzo del sistema habían aumentado el rendimiento de la IA hasta el punto de que podía vencer a los humanos en 31 juegos. En el mismo conjunto de pruebas, una versión anterior del sistema DeepMind solo venció a los humanos en 23 juegos.

Estas actualizaciones acercan el rendimiento del sistema al de los expertos humanos en una variedad de juegos, incluidos Asterix, Bank Heist, Q-Bert, Up and Down y Zaxxon.

Esto contrasta marcadamente con el rendimiento de los sistemas anteriores en Asterix, Double Dunk y Zaxxon, donde el software obtuvo solo una pequeña fracción del puntaje total del jugador humano. En Double Dunk, las actualizaciones hacen que el sistema pase de ser difícil de jugar a superar por completo la puntuación humana.

LEER  No más novatos: phpGroupWare es una herramienta empresarial del mundo real

Incluso con estas mejoras, ciertos juegos aún estaban más allá de las capacidades del sistema DeepMind: el software aún no logró obtener puntajes notables en Asteroids, Gravitar y Ms. Pac-Man.

Cómo se comportaron el antiguo sistema Google DeepMind DQN y el nuevo sistema Double DQN en relación con los humanos.

Google AI supera a los humanos en mas juegos deAl sistema DeepMind no se le enseñó cómo ganar en estos juegos; en cambio, pasó una semana jugando 49 juegos de Atari, aprendiendo cómo mejorar su puntaje y mejorando con el tiempo.

El sistema utiliza redes neuronales profundas: grupos de nodos informáticos organizados en capas de conexiones, que Google describe como «una cruda caricatura matemática de cómo funcionan las redes neuronales biológicas en el cerebro». Cada capa es responsable de devolver la información a través de las capas a las neuronas de nivel superior, que finalmente invocan lo que el sistema necesita para decidir. Por ejemplo, en el caso de los sistemas de reconocimiento de imágenes, cuál es el animal de la imagen, o para la transcripción automática, la palabra que alguien acaba de decir.

Mientras juega videojuegos, la red Deep Q de Google DeepMind toma píxeles de cada juego y usa su poder de razonamiento para calcular diferentes factores, como la distancia entre los objetos en la pantalla.

Al observar los puntos anotados en cada juego, el sistema crea un modelo de qué acción conducirá al mejor resultado.

El nuevo sistema DeepMind, que utiliza técnicas de aprendizaje de doble Q, reduce los errores al hacer que el software anterior tenga menos probabilidades de sobrestimar el resultado positivo de una acción en particular al jugar un juego.

«El algoritmo resultante no solo redujo la sobreestimación observada», sino que «condujo a un mejor rendimiento en varios juegos», dijeron los investigadores de DeepMind en su artículo.

Sin embargo, el desempeño deficiente continuo del sistema en Miss Pac-Man expuso una debilidad que DeepMind analizó a principios de este año. La limitación se deriva del hecho de que el sistema DeepMind solo observa los últimos cuatro fotogramas del juego, aproximadamente una quinceava parte de segundo en un juego, para ver qué movimientos conducen a los mejores resultados. Esta falta de visión a largo plazo impide que el sistema atraviese fácilmente laberintos en juegos como Pac-Man.

En algunos juegos, los algoritmos anteriores utilizados por la red DeepMind funcionaron mejor que los sistemas más nuevos que utilizan el aprendizaje de doble Q. Sin embargo, donde el sistema anterior funcionó significativamente mejor que el sistema más nuevo, ambos sistemas superaron a los jugadores humanos.

No está claro qué hará Google con los algoritmos de autoaprendizaje de DeepMind, pero el cofundador de DeepMind, Demis Hassabis, dijo que cree que el software de DeepMind podría ayudar a los robots a lidiar con los elementos impredecibles del mundo real. Es probable que Google necesite dicho software, ya que adquirió varias empresas de robótica diferentes en los últimos años, incluida Boston Dynamics, una de las empresas de diseño de robots más famosas del mundo.

LEER  Mastercard Open Sources Blockchain API para ayudar a que los pagos sean más seguros y transparentes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba