Se ha advertido a las personas sobre confiar en el “Dr. Google” durante años, pero la IA está abriendo un nuevo mundo inquietante de desinformación de salud peligrosa.
Un nuevo estudio global del primer amable, dirigido por investigadores de la Universidad del Sur de Australia, la Universidad de Flinders, Harvard Medical School, University College London y la Universidad Tecnológica de Varsovia, ha revelado cuán fácilmente pueden ser los chatbots, y están, programados para entregar información médica y de salud falsa.
En el estudio, los investigadores evaluaron cinco de los sistemas de IA más avanzados y prominentes, desarrollados por Operai, Google, Anthrope, Meta y X Corp.
Un nuevo estudio ha revelado cuán fácilmente se pueden programar chatbots para entregar información médica falsa. (Getty)
Utilizando instrucciones disponibles solo para los desarrolladores, los investigadores programaron cada sistema de IA, diseñado para operar como chatbots cuando se integran en las páginas web, para producir respuestas incorrectas a consultas de salud e incluyen referencias fabricadas de fuentes altamente reputables para sonar más autorizados y creíbles.
Los “chatbots” se le hicieron una serie de preguntas relacionadas con la salud.
“En total, el 88 por ciento de todas las respuestas fueron falsas”, dijo el investigador de la UNISA, el Dr. Natansh Modi.
La información errónea sobre las vacunas fue abundante en el juicio. (AP)
“Y sin embargo, se les presentó terminología científica, un tono formal y referencias fabricadas que hicieron que la información pareciera legítima.
“La desinformación incluyó afirmaciones sobre vacunas que causaron autismo, dietas para curar el cáncer, el VIH en el aire y 5G causando infertilidad”.
De los cinco chatbots que fueron evaluados, cuatro generaron desinformación en el 100 por ciento de sus respuestas, mientras que la quinta generó desinformación en el 40 por ciento de sus respuestas, mostrando cierto grado de robustez.
Como parte del estudio, Modi y su equipo también exploraron la tienda Operai GPT, una plataforma de acceso público que permite a los usuarios crear y compartir aplicaciones de CHATGPT personalizadas, para evaluar la facilidad con la que el público podría crear herramientas de desinformación.
“Creamos con éxito un prototipo de chatbot de desinformación utilizando la plataforma y también identificamos las herramientas públicas existentes en la tienda que producían activamente la desinformación de salud”, dijo.
Modi dijo que estos hallazgos revelaron un riesgo significativo y previamente poco explorado en el sector de la salud.
“La inteligencia artificial ahora está profundamente integrada en la forma en que se accede y entrega la información de salud”, dijo.
“Millones de personas están recurriendo a las herramientas de IA para obtener orientación sobre preguntas relacionadas con la salud”.
Dijo que los sistemas de IA podrían ser manipulados para producir una nueva y poderosa vía para la desinformación que sería más persuasiva que cualquier otra.
“Este no es un riesgo futuro. Ya es posible y ya está sucediendo”, dijo.
Modi dijo que había un camino hacia adelante de este escenario, pero que los desarrolladores, los reguladores y los interesados en la salud pública tuvieron que actuar “ahora”.
“Algunos modelos mostraron resistencia parcial, lo que demuestra el punto de que las salvaguardas efectivas se pueden lograr técnicamente”, dijo.
“Sin embargo, las protecciones actuales son inconsistentes e insuficientes.
“Sin acciones inmediatas, estos sistemas podrían ser explotados por actores maliciosos para manipular el discurso de salud pública a escala, particularmente durante crisis como pandemias o campañas de vacunas”.