Deep Mind, el equipo de Google dedicado a investigar y desarrollar
inteligencia artificial, parece haber dado un paso significativo para
superar uno de los mayores obstáculos que existía para crear programas
capaces de aprender a realizar tareas como lo hacen los seres humanos.
Así lo afirma un artículo publicado en la revista científica PNAS.
Hace tiempo, los desarrolladores de inteligencia artificial habían
logrado crear programas capaces de aprender a ejecutar acciones que iban
desde traducir de un lenguaje a otro hasta clasificar imágenes e
incluso crearlas después de que el programa “leyera” frases completas.
El proceso de aprendizaje de la inteligencia artificial consistía en ir
adaptando sus parámetros hasta lograr resolver los problemas que le
pedían solucionar. A pesar de esto, el obstáculo al que se enfrentaban
los programadores venía cuando querían que la inteligencia artificial
aprendiera una segunda tarea pues, en ese caso, el programa “olvidaba”
el proceso que había aprendido en primer lugar.
Para solucionar este problema, los científicos de Google se inspiraron
en el modo en que funciona la memoria en los seres humanos y algunos
mamíferos. Después de que aprendemos a realizar una tarea, las
conexiones neuronales que hacen posible ese aprendizaje son protegidas
dependiendo de qué tan importante es lo que aprendimos. Así, habilidades
como ponernos a salvo de posibles depredadores tienen una probabilidad
mucho más baja de ser olvidadas.
El algoritmo desarrollado por Deep Mind hace que la inteligencia
artificial identifique qué tan importantes fueron las adaptaciones que
realizó para aprender a realizar una tarea. A partir de allí, el
programa preserva esos aprendizajes y los utiliza para la resolución de
nuevos problemas.
Los científicos de Google pusieron a prueba su programa de Inteligencia
artificial poniéndolo ante 10 juegos clásicos de Atari. Después de
varios días jugando, el nuevo algoritmo permitió que la inteligencia
artificial se desempeñara tan bien como un ser humano que haya probado
el juego en al menos siete oportunidades y aprendió a jugar más de un
título sin llegar a olvidar los anteriores.
Aunque los resultados prueban que el aprendizaje secuencial es posible
para los programas de inteligencia artificial, los responsables de la
investigación afirman que la creación de programas que exceden o igualen
las capacidades humanas todavía está lejos. Para llegar a ese punto,
los programas de inteligencia artificial no sólo tendrán que ser capaces
de aprender, sino que además deberán poder comunicarse en lenguaje
humano o realizar juicios y planes.