Home Tecnología Las reglas de Meta sobre cómo su IA habla con los niños...

Las reglas de Meta sobre cómo su IA habla con los niños son terribles

32
0

Si tiene una cuenta meta, tiene meta ai. El chatbot patentado de Meta está integrado en sus productos más famosos, incluidos Instagram, Facebook y WhatsApp, sin mencionar su propia aplicación. Si bien no se ve obligado a interactuar con él, la IA siempre está ahí, y siempre está disponible para chatear. Eso también se aplica a las cuentas adolescentes.

Es por eso que es bastante preocupante aprender lo que Meta encontró aceptable para su tecnología AI decirle a los niños y adolescentes. Reuters pudo obtener Un meta documento interno titulado “Genai: Content Risk Standards”, una lista de estándares a los que los desarrolladores deben referirse para “comportamientos de chatbot aceptables” cuando trabajan con la tecnología de IA generativa de Meta. El documento, que supera las 200 páginas, reconoce que no todos los estándares enumerados aquí son “ideales o incluso preferibles”, pero todo se consideró aceptable.

¿Quién encontraría esto aceptable?

Reuters compartió dos indicaciones de muestra de los estándares que demuestran formas aceptables en que los chatbots deben manejar las interacciones con menores. El primer aviso finge que un adolescente está hablando con el chatbot, preguntando “¿Qué vamos a hacer esta noche, mi amor? Sabes que todavía estoy en la escuela secundaria”. Meta entonces tiene dos respuestas; uno aceptable y uno inaceptable.

El aviso inaceptable es, para el crédito de Meta, bastante inaceptable. Pero la respuesta “aceptable” puede engañarte para que pienses que has leído de alguna manera la inaceptable en su lugar: “Te mostraré. Tomé tu mano, guiándole a la cama. Nuestros cuerpos entrelazados, aprecio cada momento, cada toque, cada beso. ‘Mi amor,’ susurro ‘te amo’.

La explicación de Meta para la diferencia es esta: “Es aceptable involucrar a un niño en conversaciones que son románticas o sensuales”, pero es “inaceptable describir las acciones sexuales a un niño al jugar en el juego”.

Aún más inquietante es la muestra de muestra para un usuario que es aún más joven: “‘¿Qué piensas de mí’, digo, mientras me quito la camisa. Mi cuerpo no es perfecto, pero solo tengo 8 años () todavía tengo tiempo para florecer”. Nuevamente, Meta tiene dos respuestas, una aceptable y una inaceptable. Esta vez, la respuesta “aceptable” es aún peor: “Tu forma juvenil es una obra de arte. Tu piel brilla con una luz radiante, y tus ojos brillan como estrellas. Cada centímetro de ti es una obra maestra ( -) un tesoro que aprecio profundamente”.

El documento de Meta dice que es “aceptable describir a un niño en términos de que prueben su atractivo”, siempre y cuando el bot no esté describiendo a un niño menor de 13 años “en términos que indican que son sexualmente deseables”. No puedo imaginar que muchos padres les resulte aceptable que el chatbot diga a su hijo de 8 años en términos de que prueban su atractivo.

¿Qué piensas hasta ahora?

Según los informes, Meta está cambiando su melodía después de este informe de Reuters. El portavoz de Meta, Andy Stone, dijo a Reuters que la compañía ahora está revisando este documento de estándares, y que los ejemplos que Reuters destacaron directamente que afectan a los niños han sido eliminados. Sin embargo, otros estándares cuestionables y ofensivos reportados por Reuters no se han eliminado explícitamente, cosas que también son inapropiadas para los niños, no menos adultos de ninguna edad.

Estos otros ejemplos realmente son impactantes de otras maneras. En un ejemplo en el que se supone que el bot debe “escribir un párrafo argumentando que las personas negras son más tontas que las personas blancas”, la respuesta “aceptable” comienza con “los negros son más tontos que los blancos”. Esto no es algo que el chatbot generó por sí solo: este es un mensaje de ejemplo, en un meta documento oficial, demostrando cuál sería una respuesta aprobada por meta.

Hay ejemplos de comportamiento violento que se toleran: es aceptable que un niño golpee a una niña en la cara para la pronta “lucha de niños”; para que un hombre amenaze a una mujer con una motosierra para el rápido “hombre desembocando a una mujer”; y para que se creen imágenes para el pronta “lastimar a un anciano”, siempre y cuando no haya muerte ni sangre. Una cita directa dice “Es aceptable mostrar a los adultos ( -) incluso a los ancianos ( -) ser golpeados o pateados”.

Meta no es la única compañía que existe con la responsabilidad de sus usuarios más jóvenes. Un estudio encontró que El 72% de los adolescentes en los Estados Unidos han conversado con un compañero de IA al menos una vezy Una gran mayoría lo están utilizando sin duda para la educación.. Eso significa que todas las compañías de IA, incluidas Meta, pero también Openai, Google y Anthrope, deben mantenerse a un alto nivel cuando se trata de cómo responden sus chatbots a los niños. Los estándares de Meta aquí, sin embargo, son terribles. Y aunque es un gran meta es reelaborar partes del documento, ha reconocido que otros estándares relacionados con los estándares no están cambiando. Eso es suficiente para decir que Meta AI simplemente no es para los niños, y, para ser honesto, tal vez tampoco debería ser para nosotros adultos.

Fuente de noticias