Por Agencia Sinc
Entre los seis y los nueve meses de edad, los niños aprenden sus primeras palabras y empiezan a relacionarlas con objetos y conceptos del mundo real. Cuando tienen entre 1,5 y dos años, la mayoría puede comprender una media de 300 palabras. Sin embargo, no se sabe bien cómo las adquieren y las relacionan con sus equivalentes visuales.
Comprender mejor este proceso podría servir de base a los sistemas de inteligencia artificial (IA) de nueva generación que desarrollan vínculos entre las palabras y las representaciones visuales.
Le puede interesar: ¿Ha visto un ovni? Estos avistamientos dejan huella psicológica, según estudio
Los actuales sistemas de IA, como Chat GPT-4, ya pueden aprender y utilizar el lenguaje humano, pero lo hacen a partir de cantidades astronómicas de datos lingüísticos, mucho más de lo que reciben los niños cuando aprenden a entender y hablar. Los mejores sistemas de IA se entrenan con textos que contienen billones de palabras, mientras que los niños solo reciben millones al año.
Debido a esta enorme laguna de datos, los investigadores se han mostrado escépticos ante la posibilidad de que los recientes avances de la IA puedan decirnos mucho sobre el aprendizaje y el desarrollo del lenguaje humano.
Para avanzar en este ámbito, un equipo de la Universidad de Nueva York (NYU, por sus siglas en inglés) decidió desarrollar un nuevo modelo de aprendizaje automático, no a partir de datos masivos, sino tomando como ejemplo la experiencia de cómo aprende a hablar un único niño, al que llamaron bebé S. Los resultados del estudio se publican ahora en Science.
Le puede interesar: ¿Los jóvenes están cansados del sexo? Un estudio responde esta incógnita moderna
Los autores diseñaron un experimento que consistió en entrenar un sistema de IA multimodal a través de los ojos y los oídos de bebé S. Para ello utilizaron grabaciones de vídeo de una cámara frontal que recogieron desde que tenía seis meses hasta su segundo cumpleaños. Y examinaron si el modelo podía aprender palabras y conceptos presentes en la experiencia cotidiana de un niño.
Wai Keen Vong, investigador de la universidad estadounidense y primer firmante del estudio, explica a SINC que en su ensayo utilizaron el conjunto de datos SAYCam, “un recurso muy rico e interesante que consiste en vídeos capturados con cámaras montadas en la cabeza en niños en desarrollo”.