Home Tecnología Los investigadores advierten sobre el ascenso en imágenes explícitas creadas por IA

Los investigadores advierten sobre el ascenso en imágenes explícitas creadas por IA

91
0

Crédito: dominio público Unsplash/CC0

Un equipo de investigadores, incluido Kevin Butler, Ph.D., profesor del Departamento de Informática e Informática e Ingeniería de la Universidad de Florida, suena la alarma de una tendencia inquietante en la inteligencia artificial: el rápido aumento de las imágenes explícitas sexualmente generadas por IA creadas sin el consentimiento de la sujeto.

Butler y sus colegas de la UF, la Universidad de Georgetown y la Universidad de Washington investigaron una clase creciente de herramientas que permiten a los usuarios generar imágenes desnudas realistas a partir de fotos cargadas, toolas que requieren poca habilidad, cuestan prácticamente nada y están en gran medida no reguladas.

“Cualquiera puede hacer esto”, dijo Butler, director del Instituto de Investigación de Ciberseguridad de Florida. “Se hace en la web, a menudo anónimamente, y no hay una aplicación significativa de la edad o el consentimiento”.

El equipo ha acuñado el término Sneaaci, abreviatura de imágenes sintéticas no consensuadas explícitas creadas con AI, para definir esta nueva categoría de abuso. El acrónimo, pronunciado “astuto”, destaca la naturaleza secreta y engañosa de la práctica.

“Sneaaci realmente tipifica el hecho de que muchos de estos se hacen sin el conocimiento de la víctima potencial y, a menudo, de manera muy astuta”, dijo Patrick Traynor, profesor y presidente asociado de investigación en el Departamento de Ciencias e Ingeniería e Ingeniería de la Información de la UF en la UF y coautor del documento.

En su estudio, que se presentará en el próximo Simposio de Seguridad de la Usenix este verano, los investigadores realizaron un análisis sistemático de 20 sitios web de “Nudificación” de IA. Estas plataformas permiten a los usuarios cargar una imagen, manipular la ropa, la forma del cuerpo y la pose, y generar una foto sexualmente explícita, generalmente en segundos.

A diferencia de las herramientas tradicionales como Photoshop, estos servicios de IA eliminan casi todas las barreras de entrada, dijo Butler.

“Photoshop requiere habilidad, tiempo y dinero”, dijo. “Estos sitios web de aplicaciones de inteligencia artificial son rápidos, baratos, desde libres a tan solo seis centavos por imagen, y no requieren ninguna experiencia”.

Según la revisión del equipo, las mujeres son apropiadas desproporcionadamente, pero la tecnología puede usarse en cualquier persona, incluidos los niños. Si bien los investigadores no probaron herramientas con imágenes de menores debido a limitaciones legales y éticas, encontraron “no hay salvaguardas técnicas que eviten que alguien lo haga”.

Solo 7 de los 20 sitios que examinaron incluyeron términos de servicio que requieren que los sujetos de imagen tengan más de 18 años, e incluso menos se aplican cualquier tipo de verificación de edad del usuario.

“Incluso cuando los sitios pidieron a los usuarios que confirmen que tenían más de 18 años, no había validación real”, dijo Butler. “Es un entorno no regulado”.

Las plataformas funcionan con poca transparencia, utilizando criptomonedas para pagos y alojamiento en proveedores de nubes convencionales. Siete de los sitios estudiados usaron servicios web de Amazon, y 12 fueron compatibles con CloudFlare, servicios legítimos que admiten inadvertidamente estas operaciones.

“Hay una idea errónea de que este tipo de contenido vive en la web oscura”, dijo Butler. “En realidad, muchas de estas herramientas están alojadas en plataformas de buena reputación”.

El equipo de Butler también encontró poca o ninguna información sobre cómo los sitios almacenan o usan las imágenes generadas.

“No pudimos averiguar qué están haciendo los generadores con las imágenes una vez que se crean”, dijo. “No parece que se elimine ninguna información”.

Los casos de alto perfil ya han llamado la atención sobre el problema. Según los informes, celebridades como Taylor Swift y Melania Trump han sido víctimas de imágenes explícitas no consensuadas generadas por IA. A principios de este año, Trump expresó su apoyo a la Ley Take It Down, que se dirige a este tipo de abusos y fue firmado esta semana por el presidente Donald Trump.

Pero el impacto se extiende más allá de lo famoso. Butler citó un caso en el sur de Florida, donde una concejala de la ciudad renunció después de que las imágenes explícitas falsas de ella, creadas con AI, se distribuyeron en línea.

“Estas imágenes no solo crean para diversión”, dijo Butler. “Están acostumbrados a avergonzar, humillar e incluso extorsionar a las víctimas. El número de salud mental puede ser devastador”.

Los investigadores enfatizaron que la tecnología que permite estos abusos se desarrolló originalmente con fines beneficiosos, como mejorar la visión por computadora o el apoyo a la investigación académica, y a menudo se comparte abiertamente en la comunidad de IA.

“Hay una conversación emergente en la comunidad de aprendizaje automático sobre si algunas de estas herramientas deberían estar restringidas”, dijo Butler. “Necesitamos repensar cómo se comparten y usan las tecnologías de código abierto”.

Butler dijo que el documento, autorizado por la estudiante Cassidy Gibson, a quien fue asesorado por Butler y Traynor y recibió su doctorado este mes, es solo el primer paso en su investigación más profunda sobre el mundo de las herramientas de nudificación con IA y una extensión del trabajo que están haciendo en el Centro de Privacidad y Seguridad para las Poblaciones de Poblaciones, un Center College de MARCHELEME de MARCELEGE. El documento está disponible en el servidor ARXIV Preprint.

Butler y Gibson se reunieron recientemente con la congresista estadounidense Kat Cammack para una mesa redonda sobre la creciente propagación de imágenes no consensuadas en línea. En un boletín para los constituyentes, Cammack, que sirve en el Comité de Energía y Comercio de la Cámara de Representantes, calificó el tema como una prioridad importante. Ella enfatizó la necesidad de comprender cómo se crean estas imágenes y su impacto en la salud mental de los niños, adolescentes y adultos, llamándolo “primordial para poner fin a esta peligrosa tendencia”.

“A medida que los legisladores analizan más de cerca estas tecnologías, queremos darles ideas técnicas que puedan ayudar a dar forma a la regulación más inteligente y presionar por una mayor responsabilidad de los involucrados”, dijo Butler. “Nuestro objetivo es utilizar nuestras habilidades como investigadores de ciberseguridad para abordar los problemas del mundo real y ayudar a las personas”.

Más información: Cassidy Gibson et al, analizando el ecosistema de aplicación de nudificación de IA, ARXIV (2024). Doi: 10.48550/arxiv.2411.09751

Información en la revista: ARXIV proporcionado por la Universidad de Florida

Cita: los investigadores advierten sobre el aumento en las imágenes explícitas creadas por IA, no consensuadas (2025, 22 de mayo) recuperados el 22 de mayo de 2025 de https://techxplore.com/news/2025-05-ai-nonconsensual-explicit-images.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.