Una máquina con red neuronal artificial se convierte en un “gamer” exitoso | Por: @linternista

Investigadores de la empresa Deep Mind, del gigante Google, crearon un algoritmo capaz de aprender a superar juegos clásicos de la videoconsola Atari 2600, como Space Invaders, a partir de una información mínima. Frente a un probador humano profesional, el nuevo agente artificial logró más del 75% de la puntuación en más de la mitad de los juegos.

Para los seres humanos es fácil aprender a controlar un videojuego. La experiencia anterior con la máquina o en la propia vida sirve de ayuda para superar pantallas. ¿Pero una computadora puede hacer lo mismo? Demis Hassabis y su equipo de investigadores en Inteligencia Artificial de la empresa Deep Mind, de Google, se propusieron el reto de crear un algoritmo que permitiera a una computadora aprender por sí sola, sin apenas información previa. “Su rendimiento se puede comparar con el de un probador profesional humano de videojuegos” aseguran los investigadores.

Red neuronal artificial

Hasta ahora, el método que habían empleado los ingenieros computacionales era el aprendizaje por refuerzo, basado en el estímulo y la recompensa pero que, según los investigadores, “es limitado en situaciones complejas y su aplicación se limita a los entornos controlables”.

La novedad que aportan los investigadores de Deep Mind es la combinación de este tipo de aprendizaje con una red neuronal artificial a imagen y semejanza de las biológicas. El resultado, publicado en la revista Nature, es un algortimo denominado deep Q-network (DQN) surgido a partir de un aprendizaje por refuerzo ‘profundo’.

El estudio muestra que este agente artificial aprendió por sí mismo a jugar a 49 videojuegos clásicos de la videoconsola Atari 2600, entre los que se encuentran Pacman o Space Invaders, partiendo de información sobre los píxeles y el número de acciones posibles en cada juego.

“Usamos los mismos datos iniciales para todos los juegos, lo que demuestra que el agente aprende con éxito los procedimientos de cada uno basándose únicamente en las entradas sensoriales”, explican los investigadores.

La máquina superó las puntuaciones de sus predecesoras en 43 de los 49 videojuegos. Pero sus logros no se quedan ahí, según los autores: “Su rendimiento se puede comparar con el de un probador profesional humano de videojuegos. Logró más del 75% de la puntuación humana en más de la mitad de los juegos”.

El método destacó en actividades de índole muy variada, desde los juegos de boxeo a los de carreras de coches en 3D, “lo que demuestra que utilizando la misma arquitectura, la máquina puede aprender a optimizar estrategias en diferentes ambientes”.

Para los investigadores, este algoritmo también puede ayudar a los científicos a entender el proceso de aprendizaje de las personas. Asimismo, esperan que ayude crear productos más útiles, como “mejorar el motor de búsqueda de Google para completar tareas complejas como, por ejemplo, planear un viaje”.

Fuente: La Flecha.

Daniel Ricardo Hernández @danielricardoh

Comunicador Social

Daniel Ricardo Hernández

Comunicador social con experiencia en prensa escrita y digital. Actualmente dedicado al manejo de Redes Sociales y amante del fitness.

danielricardoh has 1667 posts and counting.See all posts by danielricardoh

Deja un comentario

A %d blogueros les gusta esto: