Tecnología

¿Puede AI ayudarlo a identificar una estafa? Un experto explica

Crédito: dominio público Unsplash/CC0

Imagine que ha recibido un correo electrónico pidiéndole que transfiera dinero a una cuenta bancaria. Algunos de los detalles se ven bien, pero ¿cómo puede estar seguro de que el mensaje es legítimo?

Algunas personas pueden pedirle a una herramienta de IA como Gemini o Chatgpt que huelga signos de fraude. ¿Pero son los modelos de idiomas grandes como estos buenos para detectar fraude? ¿Y qué lenguaje rápido obtendrá los resultados más precisos?

Prueba de modelos de idiomas grandes para la detección de fraude

Los consumidores necesitan una guía clara sobre cómo usar la IA para protegerse del fraude, dice Jessica Staddon, profesora de la práctica de la Computación de la Northeastern University. Junto con dos investigadores de estudiantes graduados, Staddon está probando qué tan bien Gemini y ChatGPT pueden detectar fraude, con el objetivo de construir un corpus de técnicas rápidas confiables.

“Esta idea de que LLM podría ayudar con esto es muy popular en este momento”, dice Staddon, “pero a las personas realmente no han recibido mucho apoyo en términos de saber cómo interactuar con ellos”.

Reales quejas de combustible para la investigación de la construcción del intento

Utilizando el lenguaje extraído directamente de los informes de fraude del consumidor presentados con la Oficina de Protección Financiera del Consumidor (CFPB), los investigadores están construyendo indicaciones para ver si LLM puede distinguir entre estafas (cuando un usuario está siendo engañado), fraudes (cuando se toma el dinero de un usuario sin su consentimiento) y las comunicaciones legítimas.

Primero entrenaron a Géminis y Chatgpt4 para comprender qué es una estafa, dijo Staddon. Luego, revisando 300 quejas en la base de datos CFPB, de las cuales 192 fueron etiquetadas como estafas, utilizaron el lenguaje de quejas para generar indicaciones que describen varios escenarios.

Resultados preliminares: algunas promesas, algunos trampas

Staddon, junto con los co-investigadores Isha Chadalavada y Tianhui Huang, compartieron su investigación en curso en mayo en el taller sobre tecnología y protección del consumidor en San Francisco.

Los resultados iniciales indican que los LLM necesitan más capacitación para ser efectivo. En un caso, las herramientas detectaron una estafa incluso cuando no se incluyeron los detalles de estafa típicos, basando su evaluación en la forma en que su banco trató al cliente.

También muestran algún sesgo a favor de las organizaciones nombradas. Entre cuatro quejas sobre una compañía de reparación de crédito que ha sido multada por el CFPB por publicidad engañosa, el LLMS encontró que solo dos son estafas potenciales. En general, los investigadores encontraron que los LLM lo mejoran cuando los nombres de las empresas no se mencionan en absoluto.

Por qué la provisión efectiva de la provisión ahora más que nunca

La necesidad de una guía clara sobre la elaboración de indicaciones efectivas nunca ha sido mayor, dijo Staddon. Las quejas de fraude potencial al CFPB se duplicaron más del doble de 2020 a 2023, con 2.6 millones de informes presentados solo en 2023. La mayoría se relaciona con la cuenta bancaria de Scam y las transacciones de tarjetas de crédito.

Los investigadores eligieron estudiar herramientas LLM gratuitas porque son muy utilizadas por posibles víctimas de fraude.

“Uno de los impulsores más claros de la susceptibilidad de la estafa es el aislamiento social”, dijo Staddon, “cuando la gente no tiene a alguien a quien recurrir y dice: ‘Oye, recibí este texto extraño. ¿Esto se ve bien?'”

Capacitar a la IA con el uso de los estafadores de idiomas

La construcción de indicaciones con el lenguaje que usan los consumidores al informar fraude también fue intencional, dijo. Los estafadores construyen sus comunicaciones utilizando un lenguaje específico y tienden a repetir sus lanzamientos, modificándolos en función de sus tasas de éxito. Un ejemplo, dijo Staddon, es “el tipo del teléfono me dijo que moviera mi dinero para protegerlo”.

El uso de la redacción exacta de una comunicación sospechosa como un aviso de LLM, dijo, capacitará a la herramienta AI para identificar patrones y entrará en efectivo para identificar el fraude.

“Es una carrera armamentista”, dijo. “Siempre están desarrollando nuevas técnicas”.

Proporcionado por la Universidad del Nordeste

Esta historia se vuelve a publicar por cortesía de Northeastern Global News News.northeastern.edu.

Cita: ¿Puede la IA ayudarlo a identificar una estafa? Un experto explica (2025, 12 de junio) recuperado el 12 de junio de 2025 de https://techxplore.com/news/2025-06-ai-scam-expert.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button