Home Tecnología Hola chatbot, ¿es esto cierto? Ai ‘FactChecks’ siembra errónea

Hola chatbot, ¿es esto cierto? Ai ‘FactChecks’ siembra errónea

79
0

por Anuj Chopra con Sumit Dubey en Nueva Delhi y Maria Clara Pestre en Río de Janeiro

Los chatbots de IA se usan cada vez más para desacreditaciones instantáneas, pero sus respuestas a menudo están plagadas de información errónea.

A medida que explotó la información errónea durante el conflicto de cuatro días de la India con Pakistán, los usuarios de las redes sociales recurrieron a un chatbot de IA para su verificación, solo para encontrar más falsedades, subrayando su falta de fiabilidad como una herramienta de verificación de hechos.

Con las plataformas tecnológicas que reducen los verificadores de hechos humanos, los usuarios dependen cada vez más de los chatbots con IA, incluidos Xai’s Grok, ChatGPT de Openai y Gemini de Google, en busca de información confiable.

“Hola @grok, ¿es esto cierto?” se ha convertido en una consulta común en la plataforma X de Elon Musk, donde se construye el asistente de IA, lo que refleja la creciente tendencia de buscar desacreditaciones instantáneas en las redes sociales.

Pero las respuestas a menudo están llenas de información errónea.

Grok, ahora bajo un escrutinio renovado para insertar “genocidio blanco”, una teoría de la conspiración de extrema derecha, en consultas no relacionadas, identificó las imágenes de video antiguas del aeropuerto Jartoum de Sudán como una huelga de misiles sobre la base aérea Nur Khan de Pakistán durante el reciente conflicto del país con India.

Las imágenes no relacionadas de un edificio en llamas en Nepal se identificaron erróneamente como “probable” que mostraba la respuesta militar de Pakistán a las huelgas indias.

“La creciente dependencia de Grok como verificador de hechos se produce cuando X y otras compañías tecnológicas importantes han reducido las inversiones en verificadores de hechos humanos”, dijo a AFP McKenzie Sadeghi, investigador de The Desinformation Watchdog Newsguard.

“Nuestra investigación ha descubierto repetidamente que los chatbots de IA no son fuentes confiables para noticias e información, particularmente cuando se trata de noticias de última hora”, advirtió.

‘Fabricado’

La investigación de Newsguard encontró que 10 chatbots principales eran propensos a repetir falsedades, incluidas las narrativas de desinformación rusa y afirmaciones falsas o engañosas relacionadas con las recientes elecciones australianas.

En un estudio reciente de ocho herramientas de búsqueda de IA, el centro de remolque para periodismo digital en la Universidad de Columbia descubrió que los chatbots eran “generalmente malos al declinar para responder preguntas que no podían responder con precisión, ofreciendo respuestas incorrectas o especulativas”.

Cuando los verificadores de hechos de la AFP en Uruguay le preguntaron a Géminis sobre una imagen generada por la IA de una mujer, no solo confirmó su autenticidad sino que fabricó detalles sobre su identidad y dónde se tomó la imagen.

Grok recientemente calificó un supuesto video de una anaconda gigante que nadó en el río Amazonas como “genuino”, incluso citando expediciones científicas que suenan creíbles para respaldar su falso reclamo.

En realidad, el video fue generado por AI, informaron los verificadores de hechos de la AFP en América Latina, señalando que muchos usuarios citaron la evaluación de Grok como evidencia de que el clip era real.

Dichos hallazgos han planteado preocupaciones, ya que las encuestas muestran que los usuarios en línea están cambiando cada vez más de los motores de búsqueda tradicionales a chatbots de IA para la recopilación y verificación de información.

El cambio también se produce cuando Meta anunció a principios de este año que finalizó su programa de verificación de hechos de terceros en los Estados Unidos, entregando la tarea de desacreditar las falsedades a los usuarios comunes bajo un modelo conocido como “Notas comunitarias”, popularizado por X.

Los investigadores han cuestionado repetidamente la efectividad de las “notas comunitarias” en la lucha contra las falsedades.

‘Respuestas sesgadas’

La verificación de hechos humanos ha sido durante mucho tiempo un punto de inflamación en un clima político hiperpolarizado, particularmente en los Estados Unidos, donde los defensores conservadores mantienenlo suprime la libertad de expresión y los censores del contenido de derecha, algo que los verificadores de hechos profesionales rechazan con vehemencia.

AFP actualmente trabaja en 26 idiomas con el programa de verificación de hechos de Facebook, incluso en Asia, América Latina y la Unión Europea.

La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo estén capacitados y programados, lo que provoca preocupaciones de que su producción puede estar sujeto a influencia o control político.

El XAI de Musk recientemente culpó a una “modificación no autorizada” por hacer que Grok genere publicaciones no solicitadas que hacen referencia al “genocidio blanco” en Sudáfrica.

Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su mensaje de sistema, el chatbot nombró a Musk como el culpable “muy probable”.

Musk, el patrocinador multimillonario del presidente Donald Trump, nacido en Sudáfrica, ha visitado previamente la infundada afirmación de que los líderes de Sudáfrica estaban “presionando abiertamente por el genocidio” de los blancos.

“Hemos visto la forma en que los asistentes de IA pueden fabricar resultados o dar respuestas sesgadas después de que los codificadores humanos cambian específicamente sus instrucciones”, dijo a AFP Angie Holan, directora de la red internacional de verificación de hechos.

“Estoy especialmente preocupado por la forma en que Grok ha hecho mal manejo de solicitudes sobre asuntos muy delicados después de recibir instrucciones para proporcionar respuestas preautorizadas”.

© 2025 AFP

Cita: Hola chatbot, ¿es esto cierto? Ai ‘FactChecks’ Sow Misformation (2025, 2 de junio) Recuperado el 2 de junio de 2025 de https://techxplore.com/news/2025-06-hey-chatbot-true-ai-factchecks.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.