Tras su iniciación, los bebés empiezan a recibir modelos visuales y auditivos, imprescindibles para aprender algo inexpugnable en su vida: el lenguaje. Entre los seis et nueve meseses, comienzan a hablar, asocian sonidos con objetos y conceptos del mundo real. Cuando lees dos años, puedes consultar un vocabulario de unas 300 palabras. Pero, ¿cómo se produce este proceso de aprendizaje? Un equipo de investigadores de la Universidad de Nueva York estudió la vida diaria de un niño durante su primer año de vida para encontrar la respuesta. El experimento por sí solo confirmó la conexión entre la representación visual y la lingüística (esto es lo que sucede y el habla es la correspondiente), lo que también contribuyó al desarrollo de un modelo de inteligencia artificial (IA), que permitió reconocer distinciones. objetos de forma similar a los de los niños.
“Los grandes sistemas de IA se construyen y ejecutan con una cantidad astronómica de datos. Disponemos de kilómetros de millones de palabras para poder desarrollar un sistema lingüístico”, explica Wai Keen Vong, doctor en psicología e informática, que coordinó el estudio que fue publicado por este joven en la revista Ciencia. “Sin embargo, los humanos sólo necesitan unas pocas palabras para acceder a un sistema de comunicación eficaz”, añadió. Por este lado, a la gente le interesa investigar si una serie de ellos es capaz de aprender a hablar de la misma forma que los niños: observando su sueño, escuchando a las personas que nos rodean y conectando puntos entre quienes venimos y nuestros hijos.
La adquisición de tiempos verbales es un tema ampliamente debatido y porque tiene diversos hipotéticos. Tradicionalmente, este tipo de estudios llegan al escritorio de empresas controladas por laboratorios, lo que da como resultado hallazgos que no se extrapolan de manera efectiva a entornos más dinámicos y variados del mundo real. “La novedad de este análisis es que podemos trabajar con datos de primera mano, derivados de una situación de aprendizaje real”, afirma Vong.
Con este objetivo, el equipo de Vong analizó 61 horas de la vida de Sam, un niño australiano que, a lo largo de un año y un mes -desde que tenía 25 meses- trajo un casco con una cámara que capta las interacciones que tenía con a él. sus padres y abuelos en el día a día. En realidad, sólo recuperaste el 1% del tiempo que no dedicaste durante la duración del experimento. Pero también hay siglos de imágenes que reproducen exactamente lo que el niño vive, acompañadas de las expresiones lingüísticas de sus familiares, que explican la naturaleza de los objetos que lo habitan. “Por ejemplo, durante el tiempo de cocción, la cámara que tienes en la cabeza captura la imagen de una cuchara, incluso si tu madre necesita algo relacionado con ese utensilio. Y así ocurre con décadas de objetos contemporáneos”, explica Vong.
La conexión entre estos dos casos no es obvia. Es cierto que el investigador reconoce que la parte del deseo de los bebés incluye exactamente lo que la palabra asocia al objeto con el que interactúa. “La mayoría de las veces, los padres no etiquetan todos los objetos. Por cada pelota que juega Sam, sus padres no deciden “esta es una pelota”, “mira la pelota”. “Escuché las palabras en un contexto natural, y la dificultad es precisamente salir de él, en un discurso más o menos largo, es la palabra que corresponde al objeto redondo con el que está en proceso de juego, -dijo Vong.
Entra una IA como un bebé
Al observar el comportamiento del niño, los investigadores podrán comprobar que aprende el significado de las palabras vinculadas al estímulo visual -es decir, la imagen que se presenta- con la respuesta de sus familiares, quienes repiten la palabra correspondiente. Con estos resultados pasé la segunda fase del experimento: comprobar si una serie es capaz de aprender a reconocer objetos de la misma forma que Hizo Sam.
El modelo de inteligencia artificial, llamado CVCL (El punto de vista del niño para el aprendizaje contrastante., aprendiendo el contraste de la perspectiva del niño), ingresó a 64 categorías visuales (utensilios, juguetes, animales, entre otros) y la transcripción de lo que Sam va aprendiendo mientras mira estos objetos. Una vez creada esta base de datos, los investigadores comenzaron a probar si la IA era capaz de identificar las imágenes. Dice que el modelo (con información sensorial limitada y mecanismos de aprendizaje relativamente genéricos) ofrece una base computacional para estudiar cómo los niños aprenden sus primeras palabras y cómo esas palabras pueden conectarse con el mundo visual.
“Encontramos que CVCL puede aprender a hacer conexiones entre imágenes y texto a partir de fragmentos limitados de la experiencia de un niño solo”, dijeron los autores en el estudio. En algunos casos, los objetos aparecen sobre un fondo blanco, mientras que en otros se encuentran en un entorno con más estímulos. De hecho, la precisión de clasificación del modelo fue del 61,6%, y es alta incluso cuando se insertan en el sistema imágenes diferentes a las capturas de Sam, con las cualidades de la IA que no estaban comprometidas. “Los resultados confirman nuestra hipótesis de que, con sólo dos impulsos, que suenan donde el niño y donde escucha, es posible acelerar y acelerar este tipo de aprendizaje”, afirmó Vong.
Estudiante como nace el habla
Antonio Rodríguez Fornells, investigador del Instituto de Neurociencias de la Universidad de Barcelona, mostró la nueva faceta del estudio, que abre el camino a comprender, gracias a simulaciones por ordenador, cuáles son los mecanismos mínimos de aprendizaje que utilizan los niños para afrontarlos. el proceso de aprendizaje. un lenguaje: ‘Los estudios infantiles previos en psicología del desarrollo proporcionan conocimientos clave sobre experiencias muy novedosas, pero la cuestión de la neurociencia o los estudios de neuroimagen en otros (debido a la dificultad de aplicar estas técnicas a los bebés) no nos permite avanzar tanto en la neurociencia. como en esclarecer los mecanismos cerebrales que sustentan estos procesos de adquisición del lenguaje”, explica este neurocientífico.
Además, reconocer que las simulaciones que se plantean en el artículo corresponden a algunas teorías del lenguaje propuestas previamente. “Entre ellos, bastan mecanismos simples de aprendizaje asociativo (que permiten vincular imágenes y palabras) en un entorno de aprendizaje natural (como el que experimentan los niños al nacer y durante las primeras horas de su vida) para poder aprender esto. . relaciones y generalizar el contenido del significado”, añade Rodríguez Fornells.
Pero además, el estudio tiene ciertas limitaciones. El modelo CVCL llegó con capturas de una sola cámara montada en la cabeza de un niño solo, y aprendió a través de transcripciones de voz en lugar de voz directa, lo que omitió material importante como la entonación y el énfasis. “También es posible registrar que el aprendizaje del modelo fue pasivo, basado en la adquisición, sin interacción activa con el actor, lo cual es diferente al de los niños aprendido en el aprendizaje real”, reconocen los autores de la investigación.
Puedes seguir un MATERIAL fr. Facebook, X mi Instagramo haga clic aquí para recibir Nuestro boletín semanal.