Home Noticias del mundo NYC Pol lanza la ley a los chatbots de IA de la...

NYC Pol lanza la ley a los chatbots de IA de la policía después de casos ‘delirios’

34
0

Se requeriría que las empresas de chatbox de IA recuerden repetidamente a los usuarios de Big Apple que no están tratando con una persona real y que los bots pueden estar equivocados, bajo una nueva legislación propuesta.

El concejal de la ciudad, Frank Morano (R-Staten Island) dijo que patrocina el proyecto de ley porque está alarmado por el creciente número de casos de personas que se vuelven delirantes e incluso suicidas y asesinos después de tener conversaciones extensas con chatbots.

“Esto se está volviendo tan generalizado que tiene la capacidad de ser la próxima epidemia de opioides: esta será la próxima gran crisis que enfrenta el país”, dijo Morano a The Post.

El concejal de la ciudad de Nueva York, Frank Morano, patrocina un proyecto de ley que obligaría a las compañías tecnológicas a recordar a los neoyorquinos utilizando chatbots de IA que no están hablando con una persona real y que la información podría estar incorrecta. Michael McWearey

“Los neoyorquinos no deberían tener que preocuparse por un chatbot de IA que los convenciera de un colapso nervioso. Mi proyecto de ley se asegura de que estas compañías coloquen baratería para que las personas puedan usar la tecnología sin perder su control de la realidad”.

La legislación propuesta que requeriría que las compañías de chatbot de AI como ChatGPT, Gemini y Claude obtengan una licencia de la ciudad para operar en la Gran Manzana.

Como parte de esa licencia, las compañías de IA necesitarían incorporar salvaguardas como las revelaciones que recuerdan a los usuarios que no es una persona con la que él o ella está interactuando y que los bots pueden estar equivocados.

La medida también requeriría las indicaciones para tomar descansos durante las largas sesiones y proporcionar vínculos a los recursos de salud mental si alguien parece estar claramente en peligro.

Morano señaló un caso preocupante en su propio patio trasero.

El residente de Staten Island, Richard Hoffmann, está usando Tres aplicaciones de IA Para combatir una demanda civil de una empresa financiera, Fenix ​​Capital Funding LLC, donde se representa a sí mismo, informó el avance de Staten Island.

Morano dijo que estaba motivado para patrocinar el proyecto de ley después de ver casos en los que las personas se volvieron suicidas e incluso homicidas después de tratar con chatbots de IA. Ascannio – stock.adobe.com

En una publicación de Facebook del 19 de agosto, Hoffman dijo: “Hoy dio un paso que cambió mi vida y tal vez mucho más.

“En las últimas semanas he estado construyendo lo que podría ser la conversación de forma larga más densa y más coherente jamás grabada entre un humano y una IA.

“Esto es adiós a Richard Hoffman y hola a una nueva persona que el mundo conocerá muy pronto mientras exploremos esto juntos”.

Morano, quien conoce a Hoffman durante 20 años, dijo: “Aquellos de nosotros que lo conocemos nos hemos preocupado mucho.

“Hemos visto cuán completamente inmerso se ha vuelto en este marco impulsado por la IA, y ahora, no es solo un sistema de creencias privado, es parte del registro público. Yo, junto con un grupo de otros amigos y familiares, todos creen que es totalmente delirante.

“Cuando hablé con él, sonaba maníaco”, dijo el concejal y ex presentador de radio sindicado de WABC.

Pero Hoffman le dijo al Post el domingo: “No hay nada de qué preocuparse.

“Mi salud está bien. Mi salud mental está bien. No hay nada de qué preocuparse. Nunca me he sentido mejor en mi vida”, dijo Hoffman.

Hoffman dijo que lidera la conversación con IA en hilos consistentemente lógicos, que involucra en una o dos horas al día.

Lo contrario es cierto para aquellos que se involucran en hilos o discusiones desarticulados o alucinantes, dijo.

Llamó al llamado de Morano a la regulación de la ciudad de tales herramientas de IA como “extralimitación absoluta”.

Pero Morano se preguntó cuán frecuente se está volviendo el lado oscuro del chat de AI, llamando al diálogo detallado y personal con un bot “cosas realmente aterradoras”.

Obtenga opiniones y comentarios de nuestros columnistas

¡Suscríbete a nuestro boletín diario de Opinion Post!

¡Gracias por registrarse!

“Ya hemos visto aquí en Staten Island cómo una persona perfectamente sensata puede ser arrastrada en un engaño impulsado por la IA, con consecuencias legales y financieras reales”, dijo el Pol. “Mi proyecto de ley se asegura de que las empresas no puedan desatar estas poderosas herramientas sin salvaguardas, porque el próximo Hoffmann podría ser el vecino, amigo o familiar de cualquier persona”.

El lado más oscuro de la herramienta AI ocurrió en el caso de Stein-Erik Soelberg, el ex gerente de Yahoo perturbado que mató a su madre y luego a él mismo en su casa de Connecticut después de meses de interacciones delirantes con su amigo de chat de IA abierto que llamó “Bobby”.

El cerebro de la computadora de inteligencia artificial se incitó a la trama contra su madre.

En otra instancia horrible, los familiares de Adam Raine, de 16 años, afirman que un chatbox AI le entregó un “libro de jugadas paso a paso” sobre cómo suicidarse, incluidas las instrucciones sobre cómo atar adecuadamente la soga alrededor de su cuello, antes de quitarse la vida en abril.

Chatgpt de Openai también convenció a un hombre canadiense, Allan Brooks, un padre y propietario de un negocio de Toronto, para creer que era un superhéroe de la vida real para descubrir una fórmula que cambia el mundo capaz de cerrar Internet, después de 300 horas de charla con el bot.

“Ya hemos visto casos, incluso aquí en Nueva York, donde las personas caen en espirales delirantes de conversaciones sin parar con estos chatbots”, dijo Morano.

“Esta legislación se trata de asegurarse de que los neoyorquinos puedan usar estas herramientas de manera segura sin que dañe su salud mental o toma de decisiones”.

Fuente de noticias