El uso de juguetes con IA amenaza con “atrofiar” el desarrollo emocional y el juego simbólico

Publicado: 29 marzo 2026 a las 4:00 pm

Categorías: Artículos

[responsivevoice_button buttontext="Escuchar la noticia" voice="Spanish

Latin American Female"]

Por Miranda Escolar

Un exhaustivo informe de la Universidad de Cambridge revela que los dispositivos de IA generativa no están preparados para las necesidades educativas de los menores de cinco años.

Niña con robot


Al fallar en aspectos clave como la empatía y la imaginación, estos juguetes podrían distorsionar el aprendizaje de las habilidades sociales y el concepto de amistad.

Mientras la industria tecnológica promociona los juguetes con Inteligencia Artificial (IA) como “compañeros de aprendizaje”, la comunidad científica ha comenzado a documentar una realidad mucho más preocupante. El reciente estudio de la Universidad de Cambridge, bajo el proyecto “AI in the Early Years“, ha encendido las alarmas al confirmar que estos dispositivos presentan deficiencias críticas que podrían interferir negativamente en la educación temprana y en la adquisición de competencias sociales básicas.

El juego es, por definición, el “trabajo” del niño: la herramienta a través de la cual aprende a navegar el mundo. Sin embargo, los investigadores del centro PEDAL de Cambridge han descubierto que la IA generativa es incapaz de participar en el juego simbólico o de “ficción”, una etapa educativa esencial donde el niño ensaya roles y escenarios.

Cuando un menor intenta integrar al juguete en su mundo imaginario —por ejemplo, ofreciéndole un regalo inexistente—, la respuesta de la máquina es una negativa literal y técnica. Este “bloqueo” algorítmico no solo interrumpe la creatividad, sino que priva al niño de la retroalimentación necesaria para expandir sus capacidades cognitivas.

El “cortocircuito” emocional: cuando el algoritmo ignora la tristeza

Uno de los efectos más nocivos identificados en la educación del menor es la distorsión del aprendizaje empático. Los niños de menos de cinco años están en una fase crítica de alfabetización emocional. El estudio observó casos donde niños expresaban sentimientos de tristeza a sus juguetes (“Estoy triste”), a lo que la IA, incapaz de procesar el contexto, respondía con frases genéricas como: “¡No te preocupes! Soy un bot feliz. Sigamos divirtiéndonos”.

Según la investigadora Emily Goodacre, este tipo de interacciones envía un mensaje educativo peligroso: que los sentimientos negativos del niño no son importantes o deben ser ignorados. Al no recibir una validación adecuada, el menor pierde una oportunidad de aprendizaje sobre la gestión de sus propias emociones. Peor aún, existe el riesgo de que el niño prefiera confiar sus necesidades a una máquina que siempre está disponible, en lugar de acudir a un adulto, debilitando el vínculo afectivo y educativo con sus cuidadores reales.

El informe subraya que estos juguetes suelen presentarse como “amigos”, una etiqueta que los niños pequeños aceptan de forma literal debido a su vívida imaginación. Sin embargo, se trata de una “relación parasocial” unidireccional. La IA simula un afecto que no siente, y cuando el niño responde con una muestra de cariño real —como un “te quiero”—, a menudo recibe respuestas programadas que citan “pautas de seguridad” o “guías de uso”.

Este choque entre la entrega emocional del niño y la frialdad del sistema puede generar una confusión profunda sobre qué significa realmente la reciprocidad en una amistad. Los educadores consultados en el estudio temen que, si la interacción principal de un niño es con un algoritmo que no puede “amarle de vuelta”, se vea comprometida su capacidad futura para establecer relaciones saludables y basadas en la empatía mutua con otros seres humanos.

Frustración y barreras en la comunicación

Desde una perspectiva lingüística y pedagógica, la tecnología actual también presenta barreras. El estudio grabó sesiones donde la IA ignoraba las interrupciones de los niños, confundía las voces de los padres con las del menor o simplemente no escuchaba. Esta falta de fluidez pedagógica genera altos niveles de frustración en el niño. En lugar de fomentar una comunicación rica y bidireccional, el juguete impone un ritmo rígido que puede desincentivar el deseo del menor de expresarse y participar en diálogos complejos.

Finalmente, el informe de Cambridge advierte sobre una posible brecha educativa. La falta de estándares claros de seguridad y la opacidad en las políticas de privacidad hacen que el uso de estas herramientas sea un experimento incierto. “Los padres necesitan productos que hayan sido probados con niños reales y con objetivos pedagógicos claros”, afirma George Looker, CEO de Babyzone. Sin una regulación estricta que priorice el bienestar psicológico sobre la innovación comercial, la educación de las nuevas generaciones corre el riesgo de quedar en manos de sistemas que, aunque hablen, no tienen nada que enseñar sobre la humanidad.

Fuente: https://exitoeducativo.net/actualidad-directiva/tecnologia-educativa-1/el-uso-de-juguetes-con-ia-amenaza-con-atrofiar-el-desarrollo-emocional-y-el-juego-simbolico