Docsalud – Lo que necesita saber sobre salud

Diseñan cerebro artificial capaz de dominar videojuegos

Científicos británicos diseñaron una red neuronal artificial capaz de aprender a dominar diversos videojuegos sin haber sido previamente programada para ello, según un estudio que publica este miércoles la revista Nature. 
La compañía DeepMind, adquirida por Google en enero de 2014, combinó técnicas de aprendizaje informático ya conocidas con mecanismos inspirados en la biología para lograr que su «agente artificial» aprenda a jugar a 49 videojuegos clásicos del computador Atari 2600. 
El sistema es capaz de descubrir el objetivo del juego y dominar sus controles sin contar con más información que las imágenes que aparecen en pantalla y la puntuación. 
Gracias a sus mecanismos de adaptación y aprendizaje, la máquina actúa a un nivel comparable al de un humano profesional en estos pasatiempos. 
Los autores del sistema subrayan que la aplicación de la inteligencia artificial a los videojuegos no es más que una demostración de la potencia de su algoritmo, cuyo uso se puede generalizar a otro tipo de entornos e industrias. 
Demis Hassabis, uno de los creadores, explicó en una rueda de prensa por vía telefónica que su red neuronal es un artefacto de naturaleza distinta a otras máquinas como el conocido Deep Blue, el ordenador que en 1996 derrotó por primera vez a un campeón del mundo de ajedrez, en aquel momento el ruso Gary Kaspárov. 
«La diferencia es que las habilidades de Deep Blue estaban programadas de antemano. Un equipo de ingenieros y maestros del ajedrez volcaron todo su conocimiento en un algoritmo que se ejecutaba con éxito sin aprender nada», relató Hassabis. 
«Nuestra sistema, en cambio, empieza de cero, sin ninguna información. Solo cuenta con la experiencia perceptiva. Tiene que aprender él solo qué patrones seguir. La idea es que pueda adaptarse a situaciones inesperadas», detalló. 
El investigador explicó que los sistemas de redes neuronales artificiales son «más humanos» que otro tipo de programas de inteligencia artificial porque asimilan el mundo que los rodea y crean un modelo que les permite tomar decisiones. 
En el caso de estos pasatiempos, el sistema aprende qué acciones son más recomendables según la puntuación que va sumando en una partida. 
Con esa estrategia, es capaz de sobresalir en videojuegos de todo tipo, como de plataformas, de disparos, de boxeo y de carreras de coches, lo que demuestra que «una única arquitectura puede desarrollar tácticas óptimas para una amplia variedad de entornos», describió Hassabis. 
«La idea es que el sistema se puede aplicar a cualquier toma de decisiones secuencial. No hemos programado nada específico para jugar a videojuegos de Atari, es un programa de aprendizaje general», afirmó Koray Kavukcuoglu, miembro de DeepMind. 
La empresa es desde el año pasado propiedad de la estadounidense Google, que pagó cerca de 450 millones de euros por ella en una puja en la que también competían otras grandes compañías del sector tecnológico como Facebook. 

Científicos británicos diseñaron una red neuronal artificial capaz de aprender a dominar diversos videojuegos sin haber sido previamente programada para ello, según un estudio que publica este miércoles la revista Nature.

La compañía DeepMind, adquirida por Google en enero de 2014, combinó técnicas de aprendizaje informático ya conocidas con mecanismos inspirados en la biología para lograr que su «agente artificial» aprenda a jugar a 49 videojuegos clásicos del computador Atari 2600.

El sistema es capaz de descubrir el objetivo del juego y dominar sus controles sin contar con más información que las imágenes que aparecen en pantalla y la puntuación.

Gracias a sus mecanismos de adaptación y aprendizaje, la máquina actúa a un nivel comparable al de un humano profesional en estos pasatiempos.

Los autores del sistema subrayan que la aplicación de la inteligencia artificial a los videojuegos no es más que una demostración de la potencia de su algoritmo, cuyo uso se puede generalizar a otro tipo de entornos e industrias.

Demis Hassabis, uno de los creadores, explicó en una rueda de prensa por vía telefónica que su red neuronal es un artefacto de naturaleza distinta a otras máquinas como el conocido Deep Blue, el ordenador que en 1996 derrotó por primera vez a un campeón del mundo de ajedrez, en aquel momento el ruso Gary Kaspárov.

«La diferencia es que las habilidades de Deep Blue estaban programadas de antemano. Un equipo de ingenieros y maestros del ajedrez volcaron todo su conocimiento en un algoritmo que se ejecutaba con éxito sin aprender nada», relató Hassabis.

«Nuestra sistema, en cambio, empieza de cero, sin ninguna información. Solo cuenta con la experiencia perceptiva. Tiene que aprender él solo qué patrones seguir. La idea es que pueda adaptarse a situaciones inesperadas», detalló.

El investigador explicó que los sistemas de redes neuronales artificiales son «más humanos» que otro tipo de programas de inteligencia artificial porque asimilan el mundo que los rodea y crean un modelo que les permite tomar decisiones.

En el caso de estos pasatiempos, el sistema aprende qué acciones son más recomendables según la puntuación que va sumando en una partida.

Con esa estrategia, es capaz de sobresalir en videojuegos de todo tipo, como de plataformas, de disparos, de boxeo y de carreras de coches, lo que demuestra que «una única arquitectura puede desarrollar tácticas óptimas para una amplia variedad de entornos», describió Hassabis.

«La idea es que el sistema se puede aplicar a cualquier toma de decisiones secuencial. No hemos programado nada específico para jugar a videojuegos de Atari, es un programa de aprendizaje general», afirmó Koray Kavukcuoglu, miembro de DeepMind.

La empresa es desde el año pasado propiedad de la estadounidense Google, que pagó cerca de 450 millones de euros por ella en una puja en la que también competían otras grandes compañías del sector tecnológico como Facebook. 

Salir de la versión móvil