Secciones
Servicios
Destacamos
Cuando un padre o una madre dice algo frente a su hijo, es probable que algunas de las palabras que utilicen se refieran a algo que el pequeño está viendo en ese momento. Con el tiempo acaba aprendiendo que la palabra 'gato' se refiere al ... animalito de cuatro patas que no para de dar vueltas por la casa y que la palabra 'tele' se corresponde a una especie de caja rectangular de la que salen imágenes y sonidos. Los programas de inteligencia artificial como Chat GPT no aprenden así. Necesitan millones y millones de ejemplos que normalmente cogen de Internet, la wikipedia… La versión anterior de GPT, el 'cerebro' de ChatGPT, manejaba 175.000 millones de parámetros, aproximadamente el doble de neuronas que tenemos en nuestros cerebros -de la actual no se han revelado las cifras-. ¿Podría la inteligencia artificial aprender una lengua como lo hacemos los seres humanos, no con la información masiva que reciben de la web y sí con lo que ve y escucha un niño?
Esta es la pregunta que han buscado responder investigadores de la Universidad de Nueva York. La respuesta es que sí, tal y como demuestran en un estudio publicado este jueves en la revista 'Science'. «Demostramos, por primera vez, que una red neuronal -las herramientas matemáticas que están en las entrañas de estos programas- entrenada con esta información realista desde el punto de vista del desarrollo de un solo niño puede aprender a vincular palabras con sus contrapartes visuales», explica uno de los autores.
«Es un trabajo muy interesante», coinciden Eneko Agirre, el director de HiTZ, el Centro Vasco de Tecnología de la Lengua de la UPV/EHU, y José Antonio Lozano, director científico del Basque Center for Applied Mathematics (BCAM) y catedrático de Computación e Inteligencia Artificial. «Demuestra que una red neuronal puede aprender una parte pequeña del idioma a partir de los datos en crudo, de lo que ve y oye un niño», subraya Agirre.
Los pequeños empiezan a adquirir sus primeras palabras y a conectarlas con objetos del mundo real entre los 6 y 9 primeros meses de vida. Entre el año y medio y los dos años la mayoría comprende un promedio de 300 palabras. Para situar al sistema de inteligencia artificial en condiciones similares, colocaron una cámara sobre la cabeza de un niño desde los seis meses hasta los dos años, grabando tanto imágenes como sonidos. Recopilaron 61 horas de grabación, «solo el 1% de las horas en las que el menor estaba despierto».
A continuación, los investigadores entrenaron una red neuronal multimodal -aquella que puede captar datos de varias fuentes, en este caso, imágenes y sonidos- y cruzaron los datos de las imágenes del vídeo con los sonidos con un algoritmo de aprendizaje contrastivo, que es el que se utiliza, entre otras cosas, «para asociar una descripción a una imagen», explica Agirre, que subraya que «no se trata de una arquitectura neuronal nueva, sino una ya existente».
El siguiente paso fue someter al sistema a la misma prueba con la que se evalúa el aprendizaje de los bebés. Se le presentaba al modelo una palabra y se le ofrecían cuatro imágenes diferentes para que seleccionara la que coincidía con la imagen. La inteligencia artificial logró aprender unos 50 conceptos con un nivel de acierto en torno al 60%. «No es un porcentaje elevado, pero como experimento inicial es muy interesante», insiste Lozano.
Para los autores del estudio, este sirve también para entender mejor cómo los niños adquieren sus primeras palabras y cómo estas arraigan en las imágenes que les corresponden.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.