Secciones
Servicios
Destacamos
En 1988 un grupo de filósofos y científicos cognitivos llegó a la conclusión de que la Inteligencia Artificial -esta había nacido junto a la Informática en los años cincuenta- nunca sería capaz de combinar de forma novedosa un conocimiento que ya tiene con otros que ... acaba de aprender. Esta capacidad, que se llama generalización composicional, pensaban que era exclusivamente humana. Es la que permite, por ejemplo, que los niños aprendan qué significa saltar y entiendan de inmediato lo que quiere decir saltar con las manos en alto o saltar dos veces. Por eso podemos aprender tan rápido. Un experimento llevado a cabo por dos investigadores de la Universidad Pompeu Fabra (UPF) de Barcelona y de la Universidad de Nueva York publicado este miércoles en la revista 'Nature' ha demostrado que aquellos expertos estaban equivocados.
«Durante 35 años, los investigadores de las ciencias cognitivas, la inteligencia artificial, la lingüística y la filosofía han debatido si las redes neuronales pueden lograr una generalización sistemática similar a la humana. Ahora hemos demostrado, por primera vez, que una red neuronal genérica puede imitar o superar la generalización sistemática humana en una comparación cara a cara», explica Brenden Lake, el experto del centro neoyorquino. «Es un paso relevante porque en la actualidad sistemas como Chat GPT o Bard no podrían hacerlo por mucho tiempo que dedicaran a recopilar información. Pero todavía es una escala muy técnica, ChatGPT no va a aprender a generalizar de un día para otro», subraya Eneko Agirre, director de HiTZ, el Centro Vasco de Tecnología de la Lengua de la UPV/EHU.
Para lograrlo han utilizado una nueva técnica llamada metaaprendizaje para composicionalidad (MLC por sus siglas en inglés), muy diferente al entrenamiento que reciben Chat GPT o Bard. Estas aprenden a base de introducir uno a uno millones de ejemplos -el contenido de la Wikipedia en todos sus idiomas solo supone el 3% de los datos que manejan- y dan respuestas basadas en las probabilidades que calculan las redes neuronales -herramientas estadísticas de gran complejidad- que tienen en sus entrañas. Su objetivo es adivinar la siguiente palabra, de forma similar a lo que hace Whatsapp cuando se está escribiendo un mensaje y sugiere varias posibilidades para continuar el texto.
El nuevo entrenamiento que proponen va actualizando la red neuronal a través de varias fases. Se le pide, por ejemplo, que coja la palabra 'saltar' y cree nuevas combinaciones como 'saltar dos veces' o saltar dos veces a la derecha'. A continuación, en otra fase, se le da una nueva palabra con la que tiene que repetir el proceso. «Chat GPT o Bard tienen capacidades muy importantes, pero son recopiladores de datos. Los seres humanos no pensamos así, somos capaces de generalizar», explica el experto vasco.
Para comparar el sistema MLC y nuestras capacidades, propusieron que ambas realizaran tareas idénticas. Pero en lugar de aprender el significado de palabras reales que los humanos podrían conocer, los participantes y la Inteligencia Artificial tuvieron que aprender términos inventados como 'zup' o 'dax'. El resultado es que nos igualan e incluso superan en habilidades composicionales.
El siguiente paso ahora es demostrar que funciona en modelos grandes como ChatGPT. Esto permitiría disminuir la enorme cantidad de recursos que supone su entrenamiento actual -se ha calculado que para entrenar una de las últimas versiones se necesitó un volumen de energía comparable al que consume una vivienda media de España durante 23 años- y abrir las puertas a desarrollar este tipo de herramientas a empresas sin la capacidad económica de Microsoft o Google.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.