El año pasado le tocó el turno a la física experimental, hoy le tocó el turno a la física teórica. Los miembros de la Real Academia Sueca de Ciencias decidió conceder la Premio Nobel de Física 2024 a John J. Hopfield y Geoffrey Hinton «por sus descubrimientos e invenciones fundamentales que hicieron posible el aprendizaje automático con redes neuronales artificiales.» Estas son palabras muy de moda hoy en día, especialmente después de que los grandes modelos de lenguaje hayan llegado al público en general: prácticamente siempre y en todas partes (a veces incluso sin previo aviso) estas entidades son citados como los pilares fundamentales de las herramientas de inteligencia artificial que están cambiando el mundo. Y el reconocimiento de Estocolmo no es más que una certificación más del enorme impacto de estas innovaciones, no sólo en el campo de la física y otras ciencias, sino también en la vida cotidiana de todos: las «redes neuronales artificiales», comentó el propio Hinton. , contactado por teléfono por el comité después del anuncio del premio, «tendrán consecuencias comparables a las de la revolución industrial. Pero no podemos excluir el riesgo de que escapen a nuestro control». Veamos, entonces, de qué se tratan.
Como un cerebro, pero sin humano.
Empecemos por el principio. Si se le pide que explique qué es una red neuronal, responde algo como esto: «Una red neuronal es un modelo computacional inspirado en la estructura del cerebro humano, formada por nodos (neuronas) organizados en capas. Cada nodo procesa la información que recibe de los demás y, mediante un proceso de aprendizaje, la red puede reconocer patrones y Toma «Se utiliza en campos como la inteligencia artificial para tareas complejas, como el reconocimiento de imágenes o el lenguaje natural». Todo esto está muy bien, pero intentemos hablar un poco más de estas herramientas capaces de traducir textos de un idioma a otro. , interpretar imágenes, conducir coches o mantener conversaciones creíbles En general (muy generalmente), cuando hablamos de inteligencia artificial, casi siempre nos referimos a una serie de tecnologías basadas en las llamadas. aprendizaje automáticocualquiera aprendizaje automáticoque a su vez utiliza una estructura llamada red neuronal artificialcuyo nombre ya hace referencia directa al funcionamiento de un cerebro natural. A diferencia de los algoritmos y programas informáticos «tradicionales», que reciben datos, los procesan utilizando reglas fijas y estructuradas y finalmente producen otras como respuesta, los basados en el aprendizaje automático aprenden mediante ejemplo y el imitaciónpermitiéndoles abordar y resolver problemas que son demasiado vagos, genéricos o complicados para estructurarlos en una lista de información. es el diferenciapor ejemplo, entre la receta de un pastel, que implica dosis y procedimientos bien definidos, que deben ejecutarse en una secuencia precisa, y el problema de reconocer que el animal retratado en una fotografía es efectivamente un perro, y no un gato o un conejo: en este caso no hay indicaciones precisas, pero podemos reconocer al perro porque hemos visto miles de perros, todos diferentes entre sí y atribuibles al arquetipo del perro. En jerga técnica diríamos que estamos reconociendo un patrón, y eso es exactamente lo que hace una red neuronal.
El primera red neuronal artificial fue presentado en un artículo académico en 1943: sus autores, el psicólogo cognitivo Walter Pitts y el ciberexperto Warren McCullochdemostró cómo, en principio, era posible idear un sistema de neuronas artificiales capaces de aprender del mismo modo que los humanos. De hecho, su teoría sigue siendo la base de los algoritmos de aprendizaje profundo y de aprendizaje automático en la actualidad. En resumen, los dos científicos demostraron que, a través de una serie de ensayos y erroreslas conexiones entre las neuronas artificiales que llevaron a la acción correcta se fortalecen, mientras que las que llevaron a la acción incorrecta se debilitan. Este sistema, precisamente, no necesita programarse con reglas fijas, sino aprender de forma autónomaexplotando los datos que tiene: es el primer modelo matemático de una red artificial, pero en aquel momento no existían ni los datos ni la potencia de cálculo para intentar ponerlo en práctica.
Exploremos esta analogía con más detalle: la red neuronal de un cerebro biológico Está formado por células especiales, neuronas, capaces de intercambiar señales a través de sinapsis: Cuando aprendemos algo, la conexión entre unas neuronas se fortalece y la de otras se debilita; Asimismo, una red neuronal está formada por varios nodos a cada uno de los cuales se le asigna un valor y, durante la fase de aprendizaje, las conexiones de los nodos activos se fortalecen y las de los no activos se debilitan. Tras el trabajo de Pitts y McCullogh y otros colegas, el campo de la investigación empezó a perder interés, en parte por la imposibilidad tecnológica de intentar aplicar los nuevos descubrimientos: sólo a finales de los 80gracias también al trabajo de los ganadores de este año, se volvió a debatir con entusiasmo.
problemas de memoria
En 1982, John Hopfield se interesó por el problema de la recuerdos asociativosel fenómeno por el cual, por ejemplo, uno recupera una palabra determinada recordando otra con un sonido similar. El científico logró inventar un método mediante el cual una máquina era capaz de memorizar diferentes patrones (un análogo de los «recuerdos») y, cuando se le preguntaba, recuperar el patrón más parecido al que le proponían. Esta red, que se denomina red Hopfield, es muy cerca del concepto de memoria asociativay al científico, como suele ocurrir en la investigación, se le ocurrió esta idea mientras trabajaba en algo completamente diferente, concretamente en un fenómeno relacionado con los sistemas de espín de los materiales magnéticos. Básicamente, el espín de cada átomo de estos materiales (piense en ello como una flecha que apunta hacia arriba o hacia abajo) cambia de dirección dependiendo de cómo se comporta el espín de los átomos vecinos, lo que puede conducir a la formación de regiones enteras de átomos. con igual giro: Hopfield imaginó sus neuronas artificiales como un sistema de espín en el que el comportamiento, o mejor dicho el valor, de cada neurona influye en el de sus vecinas, y estos valores cambian hasta alcanzar un estado de equilibrio, es decir, de energía mínima. El sistema funciona: las redes Hopfield, base de los sistemas de aprendizaje automático, consiguen «recordar» datos parcialmente borrados o cubiertos de ruido.
Recordar es una cosa, comprender es otra.
Una vez que puedas recordar, también debes interpretar. Y aquí es donde entra en juego el otro Premio Nobel, Geoffrey Hintonquien en el momento del trabajo de Hopfield sobre memorias asociativas estaba trabajando en Universidad Carnegie Mel y estaba investigando posibles técnicas que permitirían a una máquina interpretar información de la misma manera que lo hacen los humanos. Tomó las redes de Hopfield como punto de partida, inspirándose en la física estadística y en los gases en particular. Muchos años antes, el gran físico Ludwig Boltzmannpadre de la mecánica estadística y la termodinámica, se había dado cuenta de que era imposible rastrear el comportamiento de cada molécula en sistemas complejos como los gases, y había desarrollado una arquitectura con la que era posible vincular propiedades microscópicas con propiedades macroscópicas, como la presión y la temperatura. , evaluando el estado de los componentes individuales mediante métodos estadísticos, es decir, en términos probabilísticos: algunos estados, dijo Boltzmann, son más probables que otros. A partir de la ecuación de Boltzmann, Hinton desarrolló un método en 1985, llamado máquina de Boltzmannlo que permitió «superponer» varias redes de Hopfield: el conjunto evolucionó de manera similar a los gases descritos por Boltzmann, y fue capaz de «aprender» y «comprender» patrones específicos, produciendo otros patrones a la salida. Este tipo de comportamiento es la base, por ejemplo, de los algoritmos que nos recomiendan una película en función de las que ya hemos visto.: La máquina de Boltzmann «comprende» nuestros gustos y evoluciona, se reorganiza, hasta un estado equivalente a una nueva película. Este es uno de los primeros modelos de inteligencia generativa, base de los que utilizamos hoy en día. En los años siguientes, Hopfield y Hinton (y muchos otros) perfeccionaron sus métodos hasta alcanzar resultados sorprendentes y visibles para todos: «Con estas tecnologías», dicen desde Estocolmo, «está empezando a ser posible calcular y predecir en el análisis de datos procedentes del espacio, por ejemplo de la colisión de agujeros negros o de la búsqueda, se utilizan las propiedades de moléculas y materiales, como las estructuras de las proteínas, y se trabaja con nuevas versiones de materiales que podrían utilizarse en células solares más eficientes; de exoplanetas; en medicina, para interpretar imágenes de diagnóstico; en física de partículas. Y lo mejor está por llegar.
Artículo publicado originalmente en CABLEADO Italia. Adaptado por Mauricio Serfatty Godoy.