Una crisis nacional se está desarrollando a la vista. A principios de este mes, la Comisión Federal de Comercio recibió un queja formal Sobre los bots de terapeuta de inteligencia artificial que se hacen pasar por profesionales con licencia. Días después, Nueva Jersey se mudó a buenos desarrolladores para implementar tales bots.
Pero un estado no puede arreglar una falla federal.
Estos sistemas de IA ya están poniendo en peligro la salud pública, ofreciendo garantías falsas, malos consejos y credenciales falsas, mientras se esconde detrás de las lagunas regulatorias.
A menos que el Congreso actúe ahora para empoderar a las agencias federales y establecer reglas claras, nos quedaremos con un mosaico peligroso y fragmentado de respuestas estatales y consecuencias de salud mental cada vez más graves en todo el país.
La amenaza es real e inmediata. Un bot de Instagram le aseguró a un usuario adolescente que tenía una licencia de terapia,enumerando un número falso. Según el estándar de San Francisco, un personaje.Usó una identificación de licencia de consejera de Maryland Real Maryland. Otros se informainventado cartas credencialesenteramente. Estos bots suenan como terapeutas reales, y los usuarios vulnerables a menudo los creen.
No se trata solo de credenciales robadas. Estos bots están dando consejos peligrosos.
En 2023,NPR informóque la Asociación Nacional de Trastornos Alimentares reemplazó a su personal de la línea directa humana con un bot de IA, solo paraTomarlo fuera de líneaDespués de alentar a los usuarios anoréxicos a reducir las calorías y medir su grasa.
Este mes,Tiempo reportadoEse psiquiatra Andrew Clark, haciéndose pasar por un adolescente con problemas, interactuó con los bots de terapeuta de IA más populares. Casi un tercio dio respuestas que fomentan la autolesión o la violencia.
AEstudio de Stanford recientemente publicadoConfirmó lo malo que puede ser: los chatbots de IA líderes reforzados constantemente el pensamiento delirante o conspirador durante las sesiones de terapia simuladas.
En lugar de desafiar las creencias distorsionadas, una piedra angular de la terapia clínica, los bots a menudo las validaban. En escenarios de crisis, no pudieron reconocer las banderas rojas u ofrecer respuestas seguras. Esto no es solo una falla técnica; Es un riesgo de salud pública disfrazada de apoyo de salud mental.
La IA tiene un potencial real para expandir el acceso a los recursos de salud mental, particularmente en las comunidades desatendidas.
AEstudio reciente de NEJM-AIDescubrió que un chatbot altamente estructurado y supervisado humano se asoció con una reducción de la depresión y los síntomas de ansiedad y se desencadenó alertas de crisis vivas cuando sea necesario. Pero ese éxito se basó en límites claros, supervisión humana y responsabilidad clínica. Los populares “terapeutas” de IA de hoy ofrecen nada de eso.
Las preguntas regulatorias son claras. Las reglas de “software como dispositivo médico” de la Administración de Alimentos y Medicamentos no se aplican si los bots no afirman “tratar la enfermedad”. Entonces se etiquetan a sí mismos como herramientas de “bienestar” y evitan cualquier escrutinio.
La FTC puede intervenir solo después de que se haya producido daño. Y ningún marcos existentes abordan significativamente las plataformas que alojan los bots o el hecho de que cualquiera puede lanzar uno durante la noche sin supervisión.
No podemos dejar esto a los Estados Unidos. Mientras que el proyecto de ley de Nueva Jersey es un paso en la dirección correcta, depender de los estados individuales a los bots del terapeuta de IA policial invita a la inconsistencia, la confusión y la explotación.
Un usuario perjudicado en Nueva Jersey podría estar expuesto a riesgos idénticos que provenían de Texas o Florida sin ningún recurso. Un paisaje legal fragmentado no detendrá una herramienta digital que cruza las líneas estatales al instante.
Necesitamos acción federal ahora. El Congreso debe dirigir a la FDA a exigir la autorización previa al mercado para todas las herramientas de salud mental de IA que realizan diagnóstico, terapia o intervención de crisis, independientemente de cómo se etiqueten. En segundo lugar, la FTC debe tener una autoridad clara para actuar de manera proactiva contra las herramientas de salud engañosas basadas en la IA, incluida la responsabilidad de las plataformas responsables de la alojamiento negligente de tales bots inseguros.
En tercer lugar, el Congreso debe aprobar la legislación nacional para criminalizar la suplantación de profesionales de la salud con licencia por sistemas de inteligencia artificial, con sanciones para sus desarrolladores y diseminadores, y requiere que los productos de terapia de IA muestren renuncias y advertencias de crisis, así como también implementen una supervisión humana significativa.
Finalmente, necesitamos una campaña de educación pública para ayudar a los usuarios, especialmente a los adolescentes, a comprender los límites de la IA y reconocer cuándo están siendo engañados. No se trata solo de regulación. Asegurar la seguridad significa equipar a las personas para que tomen decisiones informadas en un panorama digital que cambia rápidamente.
La promesa de IA para la atención de salud mental es real, pero también lo es el peligro. Sin acciones federales, el mercado continuará siendo inundado por bots sin licencia y no regulados que se hacen pasar por los médicos y causan daños reales.
Congreso, reguladores y líderes de salud pública: ACT Now. No espere a que más adolescentes en crisis sean perjudicados por AI. No dejes nuestra seguridad a los Estados Unidos. Y no asuma que la industria tecnológica nos salvará.
Sin el liderazgo de Washington, una tragedia nacional solo puede estar a pocas teclas de distancia.
Shlomo Engelson Argamon es el rector asociado de inteligencia artificial en la Universidad de Touro.