El reconocimiento facial, la traducción automática y la detección de tumores son algunos de los avances posibles gracias a las redes artificiales de aprendizaje, por los cuales John Hopfield y Geoffrey Hinton recibieron el Premio Nobel de Física 2024 el martes.
Gracias a sus trabajos pioneros, los ordenadores ya no se limitan a seguir una serie de instrucciones, sino que “aprenden a través de ejemplos”.
La memoria asociativa de Hopfield
El principio del “aprendizaje automático” se inspira en el funcionamiento del cerebro humano, y más específicamente en las redes neuronales.
En los seres humanos, el aprendizaje refuerza las conexiones entre ciertos grupos de neuronas y debilita otras, lo que traza, por ejemplo, una especie de mapa de conexiones para una imagen determinada. En 1982, el físico John Hopfield trasladó este funcionamiento a una red artificial que lleva su nombre.
En esta red, el sistema funciona “con un comportamiento que naturalmente busca el mínimo de energía”, explica a la AFP Damien Querlioz, investigador francés especializado en sistemas de procesamiento de información en el Centro de Nanociencias y Nanotecnologías.
Hopfield comparó el almacenamiento de un patrón en la memoria de la red con el recorrido más eficiente de una bola rodando a través de un paisaje de picos y valles. Cuando la red procesa un patrón cercano al guardado, la bola sigue un recorrido de gasto de energía similar, llevándola al mismo punto.
“Con técnicas de física estadística, demostró cómo un algoritmo simple podía almacenar ciertos patrones en la memoria, que luego podían recuperarse”, explica Francis Bach, director del laboratorio de aprendizaje estadístico SIERRA en la Escuela Normal Superior de París.
El aprendizaje profundo de Hinton
Geoffrey Hinton construyó su trabajo sobre las bases establecidas por Hopfield. “Demostró que se podía aprender de manera efectiva con redes neuronales de múltiples capas”, explica Francis Bach. En otras palabras: “Cuantas más capas haya, más complejo puede ser el comportamiento, y cuanto más complejo es el comportamiento, más fácil es aprender de manera efectiva”.
Desde los años 80, Hinton no ha dejado de “proponer nuevos algoritmos de aprendizaje para comportamientos cada vez más complejos”, agrega.
A fines de los años 80, los investigadores comenzaron a trabajar “en el reconocimiento de caracteres, que es más simple que las imágenes naturales”, dice Bach.
Datos y potencia de cálculo
Después, la disciplina experimentó un cierto decaimiento hasta la década de 2010. Para que sus descubrimientos funcionaran, se necesitaba una mayor potencia de cálculo y, sobre todo, enormes cantidades de datos, ingredientes esenciales para las redes neuronales, explica Querlioz.
Las máquinas solo pueden aprender bien si se les proporcionan suficientes “ejemplos de la inteligencia que se quiere que reproduzcan”.
El comité Nobel recuerda que, en su artículo publicado en 1982, Hopfield utilizaba una red muy simple con “menos de 500 parámetros a monitorizar”, mientras que los modelos lingüísticos gigantes actuales contienen “un trillón”.
¿Para qué sirve?
La gran ola del aprendizaje profundo de la década de 2010 “revolucionó todo lo relacionado con el procesamiento de imágenes y el procesamiento del lenguaje natural”, señala Francis Bach.
Damien Querlioz menciona ejemplos como “asistentes de voz, el reconocimiento facial” o programas de creación de imágenes como DALL-E.
Pero estos avances van mucho más allá de lo que percibe el público en general. “Lo que permite a un software en el teléfono distinguir el rostro de tus hijos también permite reconocer un tumor”, señala Francis Bach.
También facilita el análisis y clasificación de enormes cantidades de datos recogidos en los institutos de investigación de física fundamental o el procesamiento de imágenes y espectros capturados en la observación de estrellas.
AFP