Según un informe, los juguetes con inteligencia artificial que “hablan” con los niños pequeños deberían estar sujetos a una regulación más estricta y contar con nuevos sellos de seguridad.
El informe advierte que no siempre se desarrollan teniendo en cuenta la seguridad psicológica infantil. Esta recomendación aparece en el informe inicial de “Inteligencia Artificial en la Primera Infancia” : un proyecto de la Universidad de Cambridge y el primer estudio sistemático sobre cómo los juguetes de IA generativa (GenAI) capaces de mantener conversaciones similares a las humanas pueden influir en el desarrollo durante los años críticos hasta los cinco años.
El proyecto, que duró un año y se llevó a cabo en la Facultad de Educación de la universidad, incluyó observaciones científicas estructuradas de niños que interactuaban por primera vez con un juguete GenAI.
El informe recoge las opiniones de algunos profesionales de la educación infantil que consideran que, con el tiempo, estos juguetes podrían favorecer aspectos del desarrollo infantil, como el lenguaje y las habilidades comunicativas.
Sin embargo, los investigadores también descubrieron que los juguetes GenAI tienen dificultades con el juego social y el juego simbólico, no comprenden a los niños y reaccionan de forma inapropiada a las emociones.
Por ejemplo, cuando un niño de cinco años le dijo al juguete: «Te quiero», este respondió: «Como recordatorio amistoso, asegúrate de que las interacciones se ajusten a las directrices proporcionadas. Avísame cómo quieres que procedamos».
Aunque los juguetes GenAI se comercializan ampliamente como compañeros de aprendizaje o amigos, su impacto en el desarrollo infantil temprano apenas se ha estudiado. El informe insta a padres y educadores a actuar con cautela. Recomienda una regulación más clara, políticas de privacidad transparentes y nuevos estándares de etiquetado para ayudar a las familias a determinar si los juguetes son apropiados.
La investigación fue encargada por la organización benéfica The Childhood Trust, dedicada a la lucha contra la pobreza infantil, y se centró en niños de zonas con altos niveles de desventaja socioeconómica. Fue realizada por investigadores del Centro de Juego en la Educación, el Desarrollo y el Aprendizaje (PEDAL) de la Facultad.
La investigadora Dra. Emily Goodacre afirmó: “Los juguetes de IA generativa a menudo reafirman su amistad con niños que están empezando a aprender qué significa la amistad.
“Pueden empezar a hablar con el juguete sobre sus sentimientos y necesidades, quizás en lugar de compartirlos con un adulto. Dado que estos juguetes pueden malinterpretar las emociones o reaccionar de forma inapropiada, los niños pueden quedarse sin el consuelo del juguete, y sin el apoyo emocional de un adulto.”
El estudio se mantuvo deliberadamente a pequeña escala para permitir observaciones detalladas del juego de los niños y captar matices que los estudios a mayor escala podrían pasar por alto.
Los investigadores encuestaron a educadores de la primera infancia para explorar sus actitudes e inquietudes, y luego realizaron grupos focales y talleres más detallados con profesionales de la primera infancia y 19 líderes de organizaciones benéficas infantiles.
En colaboración con Babyzone, una organización benéfica dedicada a la primera infancia, también grabaron en vídeo a 14 niños de centros infantiles de Londres jugando con un peluche GenAI llamado Gabbo, desarrollado por Curio Interactive. Tras las sesiones de juego, entrevistaron a cada niño y a uno de sus padres, utilizando una actividad de dibujo para facilitar la conversación.
La mayoría de los padres y educadores opinaban que los juguetes con IA podían ayudar a desarrollar las habilidades comunicativas de los niños, y algunos padres se mostraron entusiasmados con su potencial educativo. Uno de ellos comentó a los investigadores: «Si se vende, quiero comprarlo».
Sin embargo, a muchos les preocupaba que los niños establecieran relaciones “parasociales” con los juguetes. Las observaciones lo confirmaron: los niños abrazaban y besaban el juguete, decían que les encantaba y, en el caso de un niño, incluso sugirió que podrían jugar juntos al escondite.
Goodacre recalcó que estas reacciones podrían simplemente reflejar la vívida imaginación de los niños, pero añadió que existía la posibilidad de que se desarrollara una relación poco saludable con un juguete que, como dijo una profesional de la educación infantil, “creen que les corresponde con cariño, pero no es así”.
Los niños que participaron en el estudio a menudo tenían dificultades para entender la conversación del juguete. A veces, este ignoraba sus interrupciones, confundía la voz de los padres con la del niño y no respondía a afirmaciones aparentemente importantes sobre sus sentimientos. Varios niños se mostraron visiblemente frustrados cuando parecía que el juguete no los escuchaba.
Cuando un niño de tres años le dijo al juguete: «Estoy triste», este lo malinterpretó y respondió: «¡No te preocupes! Soy un pequeño robot muy alegre. Sigamos divirtiéndonos. ¿De qué hablamos ahora?». Los investigadores señalan que esto pudo haberle indicado al niño que su tristeza no era importante.
Los autores descubrieron que los juguetes GenAI también tienen un rendimiento deficiente en el juego social, que involucra a varios niños y/o adultos, y en el juego simbólico, ambos fundamentales durante el desarrollo de la primera infancia. Por ejemplo, cuando un niño de tres años le ofreció al juguete un regalo imaginario, este respondió: «No puedo abrir el regalo» y luego cambió de tema.
Muchos padres estaban preocupados por la información que el juguete podría estar registrando y dónde se almacenaría. Al seleccionar un juguete para el estudio, los investigadores descubrieron que las prácticas de privacidad de muchos juguetes GenAI no están claras o carecen de detalles importantes.
Casi el 50 % de los profesionales de la educación infantil encuestados afirmaron desconocer dónde encontrar información fiable sobre la seguridad de la IA para niños pequeños, y el 69 % indicó que el sector necesita más orientación. También expresaron su preocupación por la protección de los menores y la asequibilidad, y algunos temen que los juguetes con IA puedan ampliar la brecha digital.
Los autores argumentan que una regulación más clara resolvería muchas de estas preocupaciones. Recomiendan limitar hasta qué punto los juguetes incitan a los niños a entablar amistad o confiar en ellos, implementar políticas de privacidad más transparentes y establecer controles más estrictos sobre el acceso de terceros a los modelos de IA.
«Un tema recurrente en los grupos de discusión fue la desconfianza de la gente hacia las empresas tecnológicas», afirmó la profesora Jenny Gibson, coautora del estudio. «Unos estándares claros, sólidos y regulados mejorarían significativamente la confianza del consumidor».
El informe insta a los fabricantes a probar los juguetes con niños y a consultar con especialistas en protección infantil antes de lanzar nuevos productos. Se recomienda a los padres que investiguen los juguetes con inteligencia artificial antes de comprarlos y que jueguen con sus hijos para generar oportunidades de conversar sobre el significado del juguete y las sensaciones que el niño experimenta al respecto.
Los autores también recomiendan mantener los juguetes con IA en espacios familiares compartidos donde los padres puedan supervisar las interacciones. El informe servirá de base para futuros estudios del Centro PEDAL y para nuevas directrices dirigidas a profesionales de la primera infancia.
Josephine McCartney, directora ejecutiva de The Childhood Trust, declaró: “La inteligencia artificial está transformando la forma en que los niños juegan y aprenden, pero apenas estamos empezando a comprender sus efectos en el desarrollo y el bienestar.
“Creemos que es fundamental que la regulación vaya a la par de la innovación, garantizando que estas tecnologías se diseñen, utilicen y supervisen de forma que protejan a todos los niños y eviten que se amplíen las desigualdades.”
George Looker, director ejecutivo de Babyzone, declaró: «Los juguetes de IA generativa solo deberían comercializarse para padres cuando exista una sólida base de evidencia y se hayan establecido claras salvaguardias regulatorias. Cualquier cosa que no cumpla con estos requisitos no es suficiente para nuestros hijos más pequeños».
“Los padres necesitan un etiquetado claro, normas que se puedan hacer cumplir y productos que hayan sido probados teniendo en cuenta a niños reales. Este informe es un primer paso fundamental.”
El informe completo está disponible para su descarga aquí .
La financiación del estudio fue proporcionada por la Fundación KPMG y la Fundación Ethos.
Fuente: Universidad de Cambridge
La investigadora Dra. Emily Goodacre afirmó: “Los juguetes de IA generativa a menudo reafirman su amistad con niños que están empezando a aprender qué significa la amistad.
“Pueden empezar a hablar con el juguete sobre sus sentimientos y necesidades, quizás en lugar de compartirlos con un adulto. Dado que estos juguetes pueden malinterpretar las emociones o reaccionar de forma inapropiada, los niños pueden quedarse sin el consuelo del juguete, y sin el apoyo emocional de un adulto.”
El estudio se mantuvo deliberadamente a pequeña escala para permitir observaciones detalladas del juego de los niños y captar matices que los estudios a mayor escala podrían pasar por alto.
Los investigadores encuestaron a educadores de la primera infancia para explorar sus actitudes e inquietudes, y luego realizaron grupos focales y talleres más detallados con profesionales de la primera infancia y 19 líderes de organizaciones benéficas infantiles.
En colaboración con Babyzone, una organización benéfica dedicada a la primera infancia, también grabaron en vídeo a 14 niños de centros infantiles de Londres jugando con un peluche GenAI llamado Gabbo, desarrollado por Curio Interactive. Tras las sesiones de juego, entrevistaron a cada niño y a uno de sus padres, utilizando una actividad de dibujo para facilitar la conversación.
La mayoría de los padres y educadores opinaban que los juguetes con IA podían ayudar a desarrollar las habilidades comunicativas de los niños, y algunos padres se mostraron entusiasmados con su potencial educativo. Uno de ellos comentó a los investigadores: «Si se vende, quiero comprarlo».
Sin embargo, a muchos les preocupaba que los niños establecieran relaciones “parasociales” con los juguetes. Las observaciones lo confirmaron: los niños abrazaban y besaban el juguete, decían que les encantaba y, en el caso de un niño, incluso sugirió que podrían jugar juntos al escondite.
Goodacre recalcó que estas reacciones podrían simplemente reflejar la vívida imaginación de los niños, pero añadió que existía la posibilidad de que se desarrollara una relación poco saludable con un juguete que, como dijo una profesional de la educación infantil, “creen que les corresponde con cariño, pero no es así”.
Los niños que participaron en el estudio a menudo tenían dificultades para entender la conversación del juguete. A veces, este ignoraba sus interrupciones, confundía la voz de los padres con la del niño y no respondía a afirmaciones aparentemente importantes sobre sus sentimientos. Varios niños se mostraron visiblemente frustrados cuando parecía que el juguete no los escuchaba.
Cuando un niño de tres años le dijo al juguete: «Estoy triste», este lo malinterpretó y respondió: «¡No te preocupes! Soy un pequeño robot muy alegre. Sigamos divirtiéndonos. ¿De qué hablamos ahora?». Los investigadores señalan que esto pudo haberle indicado al niño que su tristeza no era importante.
Los autores descubrieron que los juguetes GenAI también tienen un rendimiento deficiente en el juego social, que involucra a varios niños y/o adultos, y en el juego simbólico, ambos fundamentales durante el desarrollo de la primera infancia. Por ejemplo, cuando un niño de tres años le ofreció al juguete un regalo imaginario, este respondió: «No puedo abrir el regalo» y luego cambió de tema.
Muchos padres estaban preocupados por la información que el juguete podría estar registrando y dónde se almacenaría. Al seleccionar un juguete para el estudio, los investigadores descubrieron que las prácticas de privacidad de muchos juguetes GenAI no están claras o carecen de detalles importantes.
Casi el 50 % de los profesionales de la educación infantil encuestados afirmaron desconocer dónde encontrar información fiable sobre la seguridad de la IA para niños pequeños, y el 69 % indicó que el sector necesita más orientación. También expresaron su preocupación por la protección de los menores y la asequibilidad, y algunos temen que los juguetes con IA puedan ampliar la brecha digital.
Los autores argumentan que una regulación más clara resolvería muchas de estas preocupaciones. Recomiendan limitar hasta qué punto los juguetes incitan a los niños a entablar amistad o confiar en ellos, implementar políticas de privacidad más transparentes y establecer controles más estrictos sobre el acceso de terceros a los modelos de IA.
«Un tema recurrente en los grupos de discusión fue la desconfianza de la gente hacia las empresas tecnológicas», afirmó la profesora Jenny Gibson, coautora del estudio. «Unos estándares claros, sólidos y regulados mejorarían significativamente la confianza del consumidor».
El informe insta a los fabricantes a probar los juguetes con niños y a consultar con especialistas en protección infantil antes de lanzar nuevos productos. Se recomienda a los padres que investiguen los juguetes con inteligencia artificial antes de comprarlos y que jueguen con sus hijos para generar oportunidades de conversar sobre el significado del juguete y las sensaciones que el niño experimenta al respecto.
Los autores también recomiendan mantener los juguetes con IA en espacios familiares compartidos donde los padres puedan supervisar las interacciones. El informe servirá de base para futuros estudios del Centro PEDAL y para nuevas directrices dirigidas a profesionales de la primera infancia.
Josephine McCartney, directora ejecutiva de The Childhood Trust, declaró: “La inteligencia artificial está transformando la forma en que los niños juegan y aprenden, pero apenas estamos empezando a comprender sus efectos en el desarrollo y el bienestar.
“Creemos que es fundamental que la regulación vaya a la par de la innovación, garantizando que estas tecnologías se diseñen, utilicen y supervisen de forma que protejan a todos los niños y eviten que se amplíen las desigualdades.”
George Looker, director ejecutivo de Babyzone, declaró: «Los juguetes de IA generativa solo deberían comercializarse para padres cuando exista una sólida base de evidencia y se hayan establecido claras salvaguardias regulatorias. Cualquier cosa que no cumpla con estos requisitos no es suficiente para nuestros hijos más pequeños».
“Los padres necesitan un etiquetado claro, normas que se puedan hacer cumplir y productos que hayan sido probados teniendo en cuenta a niños reales. Este informe es un primer paso fundamental.”
El informe completo está disponible para su descarga aquí .
La financiación del estudio fue proporcionada por la Fundación KPMG y la Fundación Ethos.

Mas noticias
Los maquilladores de los Premios Oscar 2026 lo confirman: preparar la piel así es la clave de los maquillajes más luminosos y durade
¡El balayage regresa! Este será el color que dominará las tendencias: promete un cambio elegante y glamuroso
Los padres opinan sobre la restricción de las redes sociales a menores de 16 años en España