Home Tecnología Mattel y Openai se han asociado. He aquí por qué los padres...

Mattel y Openai se han asociado. He aquí por qué los padres deberían preocuparse por la IA en juguetes

95
0

Crédito: pasatiempo, fotos sin pizarras

Mattel puede parecer una marca inmutable y de la vieja escuela. La mayoría de nosotros estamos familiarizados con él: sé a través de Barbie, Fisher-Price, Thomas & Friends, Uno, Masters of the Universe, Matchbox, Mega o Polly Pocket.

Pero los juguetes están cambiando. En un mundo donde los niños crecen con contenido y asistentes de voz curados por algoritmos, los fabricantes de juguetes están buscando a la IA para nuevas oportunidades.

Mate ahora se ha asociado con OpenAiLa compañía detrás de ChatGPT, para llevar la IA generativa a algunos de sus productos. Como los servicios de Openai no están diseñados para niños menores de 13 años, en principio Mattel se centrará en productos para familias y niños mayores.

Pero esto aún plantea preguntas urgentes sobre qué tipo de relaciones formarán los niños con juguetes que pueden hablar, escuchar e incluso afirmar que los “entienden”. ¿Estamos bien con los niños y tenemos que pensarlo dos veces antes de traer estos juguetes a casa?

Mientras haya habido juguetes, los niños han proyectado sentimientos e imaginaron vidas sobre ellos. Una muñeca podría ser un confidente, un paciente o un amigo.

Pero en las últimas décadas, los juguetes se han vuelto más receptivos. En 1960, Mattel lanzó Chatty Cathy, que chirrió “I Love You” y “Let’s Play School”. A mediados de la década de 1980, Teddy Ruxpin había introducido la narración animatrónica. Luego vinieron Furby y Tamagotchi en la década de 1990, criaturas que requieren cuidado y atención, imitando las necesidades emocionales.

El lanzamiento en 2015 de “Hello Barbie”, que utilizó AI basado en la nube para escuchar y responder a las conversaciones de los niños, señaló otro cambio importante, aunque de corta duración. Barbie ahora recordaba lo que los niños le dijeron, enviando datos a los servidores de Mattel. Investigadores de seguridad pronto demostró que las muñecas podían ser pirateadasExponer redes domésticas y grabaciones personales.

Poner AI generativo en la mezcla es un nuevo desarrollo. A diferencia de los juguetes parlantes anteriores, tales sistemas se involucrarán en una conversación de flujo libre. Pueden simular el cuidado, expresar emoción, recordar preferencias y dar consejos aparentemente reflexivos. El resultado será un juguete que no solo entretiene, sino que interactúa a nivel psicológico. Por supuesto, realmente no entenderán ni se preocuparán, pero pueden parecer hacerlo.

Detalles de Mate o Abierta ai son escasos. Uno esperaría que se incorporen características de seguridad, incluidas limitaciones en temas y respuestas preescritas para temas confidenciales y cuando las conversaciones salen del curso.

Pero incluso esto no será infalible. Los sistemas de IA pueden ser “jailbroken” o engañados para evitar restricciones a través del juego de roles o escenarios hipotéticos. Los riesgos solo se pueden minimizar, no erradicarse.

¿Cuáles son los riesgos?

Los riesgos son múltiples. Comencemos con la privacidad. No se puede esperar que los niños entiendan cómo se procesan sus datos. Los padres a menudo tampoco, y eso me incluye. Los sistemas de consentimiento en línea nos empujan a todos a hacer clic en “Aceptar todo”, a menudo sin comprender completamente lo que se comparte.

Luego está la intimidad psicológica. Estos juguetes están diseñados para imitar la empatía humana. Si un niño llega a casa triste y le cuenta a su muñeca al respecto, la IA podría consolarlos. La muñeca podría adaptar las conversaciones futuras en consecuencia. Pero en realidad no le importa. Finge, y esa ilusión puede ser poderosa.

Esto crea potencial para lazos emocionales unilaterales, con niños que forman vínculos a los sistemas que no pueden corresponder. A medida que los sistemas de IA aprenden sobre los estados de ánimo, las preferencias y las vulnerabilidades de un niño, también pueden construir perfiles de datos para seguir a los niños hasta la edad adulta.

Estos no son solo juguetes, son actores psicológicos.

Una encuesta nacional del Reino Unido Realicé con colegas en 2021 sobre las posibilidades de IA en juguetes que la emoción infantil de perfil descubrió que el 80% de los padres estaban preocupados por quién tendría acceso a los datos de sus hijos. Otras preguntas de privacidad que necesitan responder son menos obvias, pero posiblemente más importantes.

Cuando se les preguntó si las empresas de juguete deberían estar obligadas a señalar posibles signos de abuso o angustia para las autoridades, el 54% de los ciudadanos del Reino Unido estuvo de acuerdo, lo que sugiere la necesidad de una conversación social sin respuesta fácil. Si bien los niños vulnerables deben estar protegidos, la vigilancia estatal en el dominio familiar tiene poco atractivo.

Sin embargo, a pesar de las preocupaciones, las personas también ven beneficios. Nuestra encuesta de 2021 encontró que muchos padres quieren que sus hijos entiendan las tecnologías emergentes. Esto conduce a una respuesta mixta de curiosidad y preocupación. Los padres que encuestamos también apoyaron tener avisos claros de consentimiento, impresos en el empaque, como la salvaguardia más importante.

Mi más reciente 2025 Investigación con Vian Bakir en compañeros de IA en línea y los niños encontraron preocupaciones más fuertes. Alrededor del 75% de los encuestados estaban preocupados por los niños que se apegaban emocionalmente a la IA. Alrededor del 57% de las personas pensaron que es inapropiado que los niños confiaran en compañeros de IA sobre sus pensamientos, sentimientos o problemas personales (el 17% pensó que es apropiado, y el 27% fueron neutrales).

Nuestros encuestados también estaban preocupados por el impacto en el desarrollo infantil, al ver el alcance del daño.

En otra investigaciónHemos argumentado que los actuales compañeros de IA son fundamentalmente defectuosos. Proporcionamos siete sugerencias para rediseñarlos, involucrando remedios para un sobre-alcance y dependencia, eliminación de métricas basadas en extender el compromiso a través de la divulgación de información personal y la promoción de la alfabetización de IA entre los niños y los padres (lo que representa una gran oportunidad de marketing por una conversación social líder positivamente).

¿Qué se debe hacer?

Es difícil saber cuán exitosa será la nueva empresa. Puede ser que Empathic Barbie siga el camino de Hello Barbie, a la historia de los juguetes. Si no es así, la pregunta clave para los padres es esta: ¿de quién es realmente servir este juguete, el de su hijo o el de un modelo de negocio?

Las compañías de juguetes están avanzando con productos de IA empáticos, pero el Reino Unido, como muchos países, aún no tiene una ley de IA específica. El nuevo Ley de datos (uso y acceso) 2025 Actualiza las regulaciones de protección de datos y privacidad y comunicaciones electrónicas del Reino Unido, reconociendo la necesidad de fuertes protecciones para los niños. La Ley AI de la UE también hace disposiciones importantes.

Los esfuerzos de gobernanza internacional son vitales. Un ejemplo es IEEE P7014.1Un próximo estándar global sobre el diseño ético de los sistemas de IA que emulan la empatía (preside el grupo de trabajo que produce el estándar).

La organización detrás del estándar, el IEEE, identifica en última instancia posibles daños y ofrece orientación práctica sobre cómo se ve el uso responsable. Entonces, si bien las leyes deberían establecer límites, los estándares detallados pueden ayudar a definir buenas prácticas.

La conversación se acercó a Mattel sobre los temas planteados en este artículo y declinó hacer comentarios públicos.

Proporcionado por la conversación

Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Cita: Mattel y Openai se han asociado. He aquí por qué los padres deberían preocuparse por la IA en juguetes (2025, 25 de junio) recuperado el 25 de junio de 2025 de https://techxplore.com/news/2025-06-mattel-openai-partnered-parents-ai.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias