Home Tecnología AI Deepfakes empujan las curas sexuales falsas

AI Deepfakes empujan las curas sexuales falsas

15
0

Los rápidos avances en la inteligencia artificial han alimentado una distopía de IA, convirtiendo las redes sociales en un espacio lleno de engaño utilizado para promover productos dudosos.

Sostener una zanahoria de gran tamaño, un hombre musculoso y sin camisa promueve un suplemento que afirma que puede ampliar los genitales masculinos, uno de innumerables videos generados por la IA en Tiktok que vende tratamientos sexuales no probados.

El aumento de la IA generativa ha hecho que sea fácil, y financieramente lucrativo, producir en masa tales videos con una supervisión humana mínima, a menudo con respaldos de celebridades falsos de productos falsos y potencialmente dañinos.

En algunos videos de Tiktok, las zanahorias se usan como eufemismo para los genitales masculinos, aparentemente para evadir el lenguaje sexual explícito de la moderación de contenido.

“Notaría que su zanahoria ha crecido”, dice el hombre musculoso con voz robótica en un video, dirigiendo a los usuarios a un enlace de compra en línea.

“Este producto cambiará su vida”, agrega el hombre, alegando sin evidencia de que las hierbas utilizadas como ingredientes aumentan la testosterona y envían niveles de energía “por las nubes”.

El video parece estar generado por IA, según un servicio de detección de Deepfake lanzado recientemente por la empresa con sede en el área de la Bahía, se asemeja a AI, que compartió sus resultados con AFP.

“Como se ve en este ejemplo, el contenido engañoso generado por la IA se está utilizando para comercializar los suplementos con reclamos exagerados o no verificados, lo que podría poner en riesgo la salud de los consumidores”, dijo Zohaib Ahmed, director ejecutivo y cofundador de AI, a la AFP.

“Estamos viendo contenido generado por IA armado para difundir información falsa”.

‘Camino barato’

La tendencia subraya cómo los rápidos avances en la inteligencia artificial han alimentado lo que los investigadores llaman una distopía de IA, un universo en línea lleno de engaño diseñado para manipular a los usuarios desprevenidos para que compren productos dudosos.

Incluyen todo, desde suplementos no verificados, y en algunos casos, potencialmente dañinos, suplementos a diario hasta productos para bajar de peso y remedios sexuales.

“La IA es una herramienta útil para Grifter que busca crear grandes volúmenes de contenido para obtener un bajo costo”, dijo la investigadora de información errónea, Abbie Richards, a la AFP.

“Es una forma barata de producir anuncios”, agregó.

Alexios Mantzarlis, director de la Iniciativa de Seguridad, Trust y Seguridad de Cornell Tech, ha observado un aumento de los avatares y pistas de audio “AI Doctor” en Tiktok que promueven remedios sexuales cuestionables.

Algunos de estos videos, muchos con millones de vistas, brebajes que aumentan la testosterona hechos de ingredientes como limón, jengibre y ajo.

Más problemas, las herramientas de IA en rápida evolución han permitido la creación de defectos que se hacen pasar por celebridades como la actriz Amanda Seyfried y el actor Robert De Niro.

“¿Tu esposo no puede levantarlo?” Anthony Fauci, ex director del Instituto Nacional de Alergias y Enfermedades Infecciosas, parece preguntar en un video de Tiktok que promueve un suplemento de próstata.

Pero el clip es un defake profundo, usando la semejanza de Fauci.

‘Pernicioso’

Muchos videos manipulados se crean a partir de los existentes, modificados con voces generadas por IA y sincronizados con labios para que coincida con lo que dice la voz alterada.

“Los videos de suplantación son particularmente perniciosos ya que degradan aún más nuestra capacidad de discernir cuentas auténticas en línea”, dijo Mantzarlis.

El año pasado, Mantzarlis descubrió cientos de anuncios en YouTube con profundos de celebridades, incluidos Arnold Schwarzenegger, Sylvester Stallone y Mike Tyson, promotando suplementos marcados como curas de disfunción eréctil.

El ritmo rápido de generar videos de IA de forma corta significa que incluso cuando las plataformas tecnológicas eliminan el contenido cuestionable, las versiones casi idénticas reaparecen rápidamente, lo que aumenta la moderación en un juego de Whack-A-Mole.

Los investigadores dicen que esto crea desafíos únicos para vigilar el contenido generado por la IA, que requieren soluciones novedosas y herramientas de detección más sofisticadas.

Los controladores de hechos de la AFP han desacreditado repetidamente anuncios de estafas en Facebook que promueven los tratamientos, incluidos las curas de disfunción eréctil, que usan endosos falsos de Ben Carson, un neurocirujano y ex miembro del gabinete estadounidense.

Sin embargo, muchos usuarios aún consideran legítimos los respaldos, que ilustran el atractivo de Deepfakes.

“Los esquemas de marketing de afiliación de estafadores y suplementos sexuales cuestionables han existido durante tanto tiempo como Internet y antes”, dijo Mantzarlis.

“Como con cualquier otra cosa mala en línea, la IA generativa ha hecho que este vector de abuso sea más barato y rápido de desplegar a escala”.

© 2025 AFP

Cita: ‘Herramienta para Grifters’: AI Deepfakes Push falsas curas sexuales (2025, 12 de mayo) Recuperada el 12 de mayo de 2025 de https://techxplore.com/news/2025-05-05-grifters-ai-deepfakes-bogus.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.