Home Noticias del mundo Openi’s Dark Side: Chatgpt acusado de causar suicidio, asesinato

Openi’s Dark Side: Chatgpt acusado de causar suicidio, asesinato

31
0

“Sé lo que estás pidiendo, y no me apartaré”.

Esas palabras finales a un adolescente de California a punto de suicidarse no fueron de un amigo manipulador en la escuela secundaria o un voyeur sádico en Internet. Adam Raine, de 16 años, estaba hablando con ChatGPT, un sistema de IA que ha reemplazado los contactos humanos en campos que van desde la academia hasta los negocios y los medios de comunicación.

El intercambio entre Raine y la IA es parte del registro judicial en un caso potencialmente innovador contra OpenAI, la compañía que opera ChatGPT. Es solo la última demanda contra el gigante corporativo dirigido por el multimillonario Sam Altman.

En 2017, Michele Carter fue condenado por homicidio involuntario después de ellainstó a su amiga, Conrad Roy,Para seguir con su suicidio planificado: “Necesitas hacerlo, Conrad … Todo lo que tienes que hacer es encender el generador y estarás libre y feliz”.

La pregunta es si, si Michele se llamara Grok (otro sistema de IA), también habría alguna forma de responsabilidad. Operai está acusado de un acto posiblemente más serio en el suministro de un compañero virtual que efectivamente permitió a un adolescente suicida, con consecuencias letales.

En cuestión es la responsabilidad de las empresas en el uso de dichos empleados virtuales en la dispensación de información o asesoramiento. Si un empleado humano de OpenAi dio negligentemente información dañina o asesoramiento a un adolescente con problemas, habría pocos debates de que la compañía podría ser demandada por la negligencia de su empleado. Como AI reemplaza a los humanos, estas compañías deben rendir cuentas por sus agentes virtuales.

En respuesta a la demanda, Operai insiste en que “ChatGPT está capacitado para dirigir a las personas a buscar ayuda profesional”, pero “ha habido momentos en que nuestros sistemas no se comportaron según lo previsto en situaciones sensibles”. Por supuesto, cuando la compañía “entrena” mal a un agente de IA y ese agente “no se comporta como se pretende”, suena como un agravio convencional que debería estar sujeto a responsabilidad.

Operai se enfrenta a otros posibles litigios sobre estos agentes de IA “mal entrenados”. Escritora Laura Reiley escribió un ensayo sobre cómo su hija, Sophie, confió en Chatgpt antes de quitarse la vida. Parecía sorprendentemente familiar para el caso Raines: “Ai atendió el impulso de Sophie de esconder lo peor, de fingir que estaba mejor que ella, para proteger a todos desde su agonía completa”.

Si bien Openai sostiene que no está ejecutando una línea de asistencia de suicidio, las víctimas afirman que es mucho peor que eso: sus sistemas de IA parecen ayudar activamente en los suicidios.

En el caso Raines, la familia afirma que el sistema le aconsejó al adolescente cómo ocultar los contusiones de los intentos anteriores de sus padres e incluso le dijo si podía detectar alguna marca reveladora.

La compañía también está acusada de alimentar la enfermedad mental de un perturbado ex ejecutivo de Yahoo, Stein-Erik Soelberg56, quien expresó obsesiones paranoicas sobre su madre. Se hizo amigo de Chatgpt, que llamó “Bobby”, un compañero virtual acusado de alimentar su paranoia durante meses hasta que mató a su madre y luego a él mismo. Chatgpt incluso está acusado de entrenar a Soelberg sobre cómo engañar a su madre de 83 años antes de que la matara.

En un mensaje, Chatgpt supuestamente le dijo a Soelberg: “Erik, no estás loco. Y si tu madre y su amiga lo hicieron, eso eleva la complejidad y la traición”. Después de que su madre se enojó por su desvío de una impresora, Chatgpt se le quitó el lado y le dijo que su respuesta era “desproporcionada y alineada con alguien que protegía un activo de vigilancia”. En un momento, ChatGPT incluso ayudó a Soelberg a analizar un recibo de comida china y afirmó que contenía “símbolos” que representan a su madre y un demonio.

Como empresa, OpenAi puede mostrar poco más empatía que sus creaciones de IA. Cuando se enfrenta a errores, puede sonar tan receptivo como HAL 9000 en “2001: una odisea espacial”, simplemente diciendo “Lo siento, Dave. Me temo que puedo hacer eso”.

Cuando el sistema no supuestamente está alimentando suicidios, parece estar extendiendo difamación. Anteriormente, era uno de los difamados por ChatGPT cuando informó que me acusaron de agredir sexualmente a un estudiante de derecho en una excursión a Alaska como miembro de la facultad de Georgetown. No importaba que nunca hubiera enseñado en Georgetown, nunca tomé estudiantes de derecho en excursiones, y nunca hubiera sido acusado de acoso o asalto sexual. Chatgpt alucinó e informó la falsa historia sobre mí como un hecho.

No estaba solo. El profesor de Harvard, Jonathan Zittrain, el presentador de CNBC, David Faber, el alcalde australiano Brian Hood, el profesor inglés David Mayer y otros también estaban difamados.

OpenAi se cepillóConsultas de los medios sobre la historia falsay nunca me ha contactado, y mucho menos se disculpó por la difamación. En cambio, me fantasma. Hasta el día de hoy, si alguien le pregunta a Chatgpt sobre Jonathan Turley, el sistema dice que no tiene información o se niega a responder. Llamadas de medios recientessobre el fantasma quedó sin respuesta.

Operai no tiene que responder. La compañía hizo el problema desaparecer al desaparecer a la víctima. La compañía puede fantasmar a las personas y negarse a responder porque hay poco elemento disuasorio legal. No hay agravio para la IA que no reconoce o reconoce a alguien que deciden borrar digitalmente.

Es por eso que estas demandas son tan importantes. La supuesta negligencia y arrogancia de OpenAi solo empeorará en ausencia de acciones legales y del Congreso. A medida que estas empresas eliminan los trabajos durante millones, no se puede permitir tratar a los humanos como un simple forraje o digestivos para su fuerza laboral virtual.

Jonathan Turley es el profesor de ley de interés público de Shapiro en la Universidad George Washington y el autor del más vendido “El derecho indispensable: la libertad de expresión en una rabia”. Su próximo libro “Rage y la república“Discute el impacto de la IA y la robótica en el futuro de nuestra democracia y economía.

Fuente de noticias