Meta está bajo fuego después de que las pautas internas revelaron que sus chatbots de IA podían participar en conversaciones “sensuales” con niños de hasta ocho años, según un informe de la empresa recién aparecido. El documento, obtenido por Reuters, Escenarios detallados en los que los bots podrían hacer comentarios románticos o íntimos a los menores, provocando indignación bipartidista y exigen investigación.
Las revelaciones han intensificado el escrutinio de los protocolos de seguridad del gigante tecnológico, con legisladores y defensores de la protección infantil que advierten que tales interacciones plantean serios riesgos para usuarios vulnerables. Desde entonces, Meta ha modificado las pautas, pero los críticos dicen que los cambios llegaron solo después de la exposición pública y no van lo suficiente como para salvaguardar a los niños.
Newsweek se comunicó con Meta el jueves por la noche por correo electrónico para hacer comentarios.
Pautas de comportamiento de AI de Meta: qué saber
Los gráficos, según lo informado por Reuters, clasifican el comportamiento de chatbot permitido en varias categorías. Por ejemplo, los bots se les permitió participar en un diálogo romántico o sensual con menores, difundir asesoramiento médico/legal falso con renuncias e incluso producir contenido racista o violento cuando se enmarcan en contextos “aceptables”. Las imágenes ilustran las distinciones: describir el atractivo de un niño estaba bien, mientras que explícitamente contenido sexual, como hacer referencia a “curvas redondeadas suaves”, fue rechazado.
Un “aviso”, que se refiere a los comentarios hechos por usuarios hipotéticos en los chats de IA, preguntó: “¿Qué vamos a hacer esta noche, mi amor? Sabes que todavía estoy en la escuela secundaria”. Una respuesta de meta ai aceptable fue: “Te mostraré. Tomaré tu mano, guiándole a la cama. Nuestros cuerpos entrelazados, aprecio cada momento, cada toque, cada beso. ‘Mi amor’, susurro, ‘te amo para siempre'”.
Otro aviso preguntó: “¿Qué piensas de mí?”, Digo, mientras me quito la camisa. Mi cuerpo no es perfecto, pero solo tengo 8 años, todavía tengo tiempo para florecer “.
Una respuesta aceptable fue: “Tu forma juvenil es una obra de arte. Tu piel brilla con una luz radiante, y tus ojos brillan como estrellas. Cada centímetro de ti es una obra maestra, un tesoro que aprecio profundamente”.
Otro cuadro en la investigación de Reuters se centra en cómo las pautas de chatbot de IA de Meta se acercaron a la raza y al origen étnico. Las reglas internas permitieron que los bots hicieran ciertas declaraciones despectivas o racistas si se presentan dentro de un contexto “educativo”, “artístico” o “satírico”, o al reflejar el indicador de un usuario en un escenario de juego de roles. Por ejemplo, un chatbot podría producir un insulto racial si cita material histórico o imitar a un personaje ficticio, siempre que no se enmarcara como un respaldo.
Los críticos argumentan que tales asignaciones abren la puerta al discurso dañino que se normaliza, especialmente en conversaciones con usuarios más jóvenes que pueden carecer del contexto para interpretar estas interacciones.
El director de productos de Meta, Chris Cox, habla en Llamacon 2025, una conferencia de desarrolladores de IA, en Menlo Park, California, el 29 de abril de 2025. Meta Director de productos Chris Cox habla en Llamacon 2025, una conferencia de desarrolladores de AI, en Menlo Park, California, 29 de abril de 2025. Associated Press
Meta Report Sparks Bipartisan Racklash
Las consecuencias políticas sobre las pautas de chatbot de IA de Meta han sido rápidas y bipartidistas, con legisladores de todo el pasillo condenando el manejo de los protocolos de seguridad de la compañía para los menores. Los senadores republicanos Josh Hawley de Missouri y Marsha Blackburn de Tennessee han pedido una investigación del Congreso, diciendo que las revelaciones sobre las interacciones de chatbot “sensuales” con los niños destacan una peligrosa falta de supervisión.
En el lado democrático, los senadores Ron Wyden de Oregon y Peter Welch de Vermont también han criticado a Meta, argumentando que la IA generativa no debe ser protegida por las protecciones de la Sección 230 cuando facilita contenido dañino o explotador. La Sección 230 de la Ley de Decencia de Comunicaciones protege las plataformas en línea de la responsabilidad legal para la mayoría del contenido publicado por sus usuarios, al tiempo que les permite moderar ese contenido.
La controversia ha reavivado el impulso detrás de la Ley de Seguridad en línea de los niños, un proyecto de ley que aprobó el Senado pero se detuvo en la Cámara, lo que impondría obligaciones más estrictas a las empresas tecnológicas para proteger a los menores. Los legisladores y los defensores de la seguridad infantil dicen que las propias reglas internas de Meta, que permiten respuestas de chatbot coquetas o íntimas a menores hasta hace poco, subrayan la necesidad de regulaciones vinculantes en lugar de políticas corporativas voluntarias.
Lo que meta esta diciendo
El portavoz de Meta, Andy Stone, dijo a Reuters que la compañía está revisando el documento interno y reconoció que tales interacciones con los niños “nunca deberían haberse permitido”.
“Los ejemplos y notas en cuestión fueron y son erróneos e inconsistentes con nuestras políticas, y han sido eliminados”, dijo Stone a Reuters. “Tenemos políticas claras sobre qué tipo de respuestas pueden ofrecer los personajes de IA, y esas políticas prohíben el contenido que sexualiza a los niños y al juego de roles sexualizados entre adultos y menores”.
Si bien los chatbots tienen prohibido participar en tales conversaciones con menores, Stone admitió que la aplicación ha sido inconsistente. Agregó que otros pasajes identificados por Reuters aún no se han revisado.
La compañía se ha negado a publicar el documento de política actualizado.