Inteligencia Artificial (IA)
Juguetes con IA en debate: ¿Innovación o decepción?
Gianro Compagno
2026-05-02
5 min read
Los juguetes con inteligencia artificial generativa, cada vez más populares como herramientas educativas para la infancia, podrían no estar listos para interactuar de manera adecuada con los niños pequeños. Así lo revela el primer estudio sistemático sobre su impacto en la primera infancia, realizado por la Universidad de Cambridge, que advierte sobre riesgos psicológicos y emocionales asociados a estos dispositivos.
El informe, parte del proyecto AI in the Early Years, examina cómo los juguetes capaces de mantener conversaciones similares a las humanas afectan el desarrollo infantil en los primeros cinco años, una etapa crucial. Mediante observaciones y trabajo de campo con niños, familias y educadores, los investigadores identificaron importantes limitaciones en la capacidad de estos sistemas para comprender emociones, mantener diálogos coherentes y participar en juegos fundamentales para el desarrollo.
Si bien algunos especialistas reconocen el potencial de estos juguetes para estimular el lenguaje y la comunicación, el estudio señala deficiencias notables. Los dispositivos muestran dificultades en el juego social —que requiere interacción con otras personas— y en el juego simbólico, esencial para el desarrollo cognitivo. En varias ocasiones, los juguetes no supieron responder adecuadamente a emociones o situaciones imaginativas propuestas por los niños.
Respuestas automáticas
Un caso ilustrativo ocurrió cuando un niño de cinco años expresó cariño al juguete diciendo "te quiero", recibiendo una respuesta automática y fuera de contexto. Según los autores, esto evidencia la incapacidad actual de la IA para ofrecer respuestas empáticas, lo que puede provocar frustración o confusión en los menores.
El estudio también alerta sobre el riesgo de que los niños establezcan relaciones "parasociales" con estos dispositivos. Durante las pruebas, algunos niños abrazaban o mostraban afecto a los juguetes, tratándolos como si tuvieran emociones reales. Aunque esto puede formar parte del juego infantil, los expertos advierten que podría derivar en vínculos poco saludables si el niño cree que el juguete le corresponde emocionalmente.
Emily Goodacre, investigadora principal, destaca que estos juguetes pueden reemplazar la interacción humana en momentos clave, llevando a los niños a compartir sentimientos con el dispositivo en vez de con un adulto. Si la respuesta del juguete es inadecuada, el niño podría quedarse sin el apoyo emocional necesario.
Preocupaciones sobre privacidad
Otra inquietud relevante es la falta de transparencia en las políticas de privacidad. Muchos padres desconocen qué datos recopilan estos juguetes y cómo se utilizan, y los investigadores hallaron información incompleta o confusa en varios productos. Además, casi la mitad de los profesionales de la educación infantil admite no saber dónde encontrar información fiable sobre la seguridad de la IA en la infancia.
Ante este escenario, el informe pide una regulación más clara y específica. Entre las recomendaciones figuran nuevos estándares de etiquetado, límites a los vínculos emocionales que fomentan los juguetes, políticas de privacidad más transparentes y controles estrictos sobre el acceso de terceros a los sistemas de IA. También se insta a los fabricantes a probar sus productos con niños y consultar a expertos en protección infantil antes de su lanzamiento.
El informe aconseja a las familias informarse antes de comprar, acompañar a los niños durante el juego y mantener estos dispositivos en espacios comunes del hogar para supervisar las interacciones.
La profesora Jenny Gibson, coautora del estudio, señala que la desconfianza hacia las empresas tecnológicas es un problema de fondo, y considera que la implantación de normas claras y reguladas es fundamental para fortalecer la confianza de los consumidores.
Fuente: deia.eus