Tecnología

¿Qué es AI Slop? Por qué ves más fotos y videos falsos en tus redes sociales

Crédito: imagen generada por IA

En mayo de 2025, ¿una publicación que pregunta “(soy el imbécil) por decirle al prometido de mi compañero de mi esposo sobre su relación?” Rápidamente recibió 6.200 votos y más de 900 comentarios sobre Reddit. Esta popularidad le valió a la publicación un lugar en la portada de las publicaciones de tendencia de Reddit. El problema? Fue (muy probable) escrito por inteligencia artificial (AI).

La publicación contenía algunos signos reveladores de IA, como el uso de frases de stock (“(la familia de mi esposo) está furiosa”) y comillas excesivas, y dibujar un escenario poco realista diseñado para generar indignación en lugar de reflejar un dilema genuino.

Si bien esta publicación ha sido eliminada por los moderadores del foro, los usuarios de Reddit han expresado repetidamente su frustración con la proliferación de este tipo de contenido.

Las publicaciones generadas por la IA en Reddit son un ejemplo de lo que se conoce como “Slop AI”: contenido generado por IA de baja calidad, creado y compartido por cualquier persona, desde personas influyentes de bajo nivel hasta operaciones coordinadas de influencia política.

Las estimaciones sugieren que más de la mitad de las publicaciones en inglés más largas en LinkedIn son escritas por IA. En respuesta a ese informe, Adam Walkiewicz, director de producto de LinkedIn, le dijo a Wired que tiene “defensas sólidas para identificar de manera proactiva el contenido duplicado exacto o casi exacto. Cuando detectamos dicho contenido, tomamos medidas para asegurar que no se promueva ampliamente”.

Pero los sitios de noticias de baja calidad generados por IA están apareciendo en todo el lugar, y las imágenes de IA también están inundando plataformas de redes sociales como Facebook. Es posible que haya encontrado imágenes como “Shrimp Jesus” en sus propios feeds.

El contenido generado por IA es barato. Un informe del Centro de Excelencia de la OTAN Stratcom de 2023 encontró que por solo € 10 (alrededor de £ 8), puede comprar decenas de miles de puntos de vista y me gusta falsos, y cientos de comentarios generados por IA, en casi todas las principales plataformas de redes sociales.

Si bien gran parte es un entretenimiento aparentemente inocente, un estudio de 2024 encontró que aproximadamente una cuarta parte de todo el tráfico de Internet está compuesto por “bots malos”. Estos bots, que buscan difundir la desinformación, los boletos para eventos del cuero cabelludo o robar datos personales, también están mejorando mucho para enmascarar como humanos.

En resumen, el mundo está lidiando con la “Enreshificación” de la Web: los servicios en línea han mejorado gradualmente con el tiempo a medida que las empresas tecnológicas priorizan las ganancias sobre la experiencia del usuario. El contenido generado por IA es solo un aspecto de esto.

Desde publicaciones de Reddit que enfurecen a los lectores hasta los videos de gatos de lágrimas, este contenido es extremadamente llamativo y, por lo tanto, lucrativo tanto para los creadores de pendiente como para las plataformas.

Esto se conoce como cebo de compromiso, una táctica para que la gente le guste, comente y comparta, independientemente de la calidad de la publicación. Y no necesita buscar el contenido para estar expuesto a él.

Un estudio exploró cómo el cebo de compromiso, como las imágenes de bebés lindos envueltos en repollo, se recomienda a los usuarios de las redes sociales, incluso cuando no siguen ninguna página o cuentas de AI-slop. Estas páginas, que a menudo se vinculan con fuentes de baja calidad y promueven productos reales o inventados, pueden estar diseñadas para impulsar su base de seguidores para vender la cuenta más adelante para obtener ganancias.

Meta (la empresa matriz de Facebook) dijo en abril que está tomando medidas enérgicas contra el contenido “spam” que intenta “jugar el algoritmo de Facebook para aumentar las vistas”, pero no especificó contenido generado por IA. Meta ha utilizado sus propios perfiles generados por IA en Facebook, pero desde entonces ha eliminado algunas de estas cuentas.

Cuáles son los riesgos

Todo esto puede tener serias consecuencias para la democracia y la comunicación política. La IA puede crear una información errónea de manera económica y eficiente sobre las elecciones que son indiscernibles desde el contenido generado por los humanos. Antes de las elecciones presidenciales de los Estados Unidos en 2024, los investigadores identificaron una gran campaña de influencia diseñada para abogar por los problemas republicanos y atacar a los adversarios políticos.

Y antes de pensar que solo los republicanos lo hacen, piensen de nuevo: estos bots son tan parciales como los humanos de todas las perspectivas. Un informe de la Universidad de Rutgers encontró que los estadounidenses en todos los lados del espectro político confían en los bots para promover a sus candidatos preferidos.

Los investigadores tampoco son inocentes: los científicos de la Universidad de Zúrich fueron atrapados recientemente utilizando bots a la IA para publicar en Reddit como parte de un proyecto de investigación sobre si los comentarios no auténticos pueden cambiar la mente de las personas. Pero no pudieron revelar que estos comentarios eran falsos para los moderadores de Reddit.

Reddit ahora está considerando tomar medidas legales contra la universidad. El director legal de la compañía dijo: “Lo que hizo este equipo de la Universidad de Zurich es profundamente equivocado tanto en un nivel moral como legal”.

Los agentes políticos, incluso de países autoritarios como Rusia, China e Irán, invierten sumas considerables en operaciones impulsadas por la IA para influir en las elecciones en todo el mundo democrático.

Qué tan efectivas son estas operaciones está en debate. Un estudio encontró que los intentos de Rusia de interferir en las elecciones estadounidenses de 2016 a través de las redes sociales eran un fracaso, mientras que otro encontró que predijeron cifras de encuestas para Trump. De todos modos, estas campañas se están volviendo mucho más sofisticadas y bien organizadas.

E incluso el contenido generado por la IA aparentemente apolítico puede tener consecuencias. El gran volumen dificulta el acceso de noticias reales y contenido generado por los humanos.

¿Qué se debe hacer?

El contenido de IA maligna está demostrando ser extremadamente difícil de detectar por humanos y computadoras por igual. Los informáticos identificaron recientemente una red BOT de aproximadamente 1,100 cuentas X falsas que publican contenido generado por la máquina (principalmente sobre criptomonedas) e interactuan entre sí a través de Me gusta y retweets. Problemáticamente, el botómetro (una herramienta que desarrollaron para detectar bots) no logró identificar estas cuentas como falsas.

El uso de IA es relativamente fácil de detectar si sabe qué buscar, particularmente cuando el contenido es formulado o sin disculpas. Pero es mucho más difícil cuando se trata de contenido de forma corta (por ejemplo, comentarios de Instagram) o imágenes falsas de alta calidad. Y la tecnología utilizada para crear AI SLOP está mejorando rápidamente.

Como observadores cercanos de las tendencias de IA y la propagación de la información errónea, nos encantaría terminar con una nota positiva y ofrecer remedios prácticos para detectar la SLOP AI o reducir su potencia. Pero en realidad, muchas personas simplemente saltan el barco.

Insatisfecho con la cantidad de AI Slop, los usuarios de las redes sociales están escapando de las plataformas tradicionales y se unen a las comunidades en línea solo por invitación. Esto puede conducir a una mayor fracturación de nuestra esfera pública y exacerbar la polarización, ya que las comunidades que buscamos a menudo están compuestas por personas de ideas afines.

A medida que esta clasificación se intensifica, las redes sociales se arriesgan a convertirse en entretenimiento sin sentido, producido y consumido principalmente por bots que interactúan con otros bots mientras que los humanos espectacan. Por supuesto, las plataformas no quieren perder a los usuarios, pero pueden presionar tanto AI Slop como el público puede tolerar.

Algunas soluciones técnicas potenciales incluyen el etiquetado de contenido generado por IA a través de una mejora de la detección de bots y la regulación de divulgación, aunque no está claro qué tan bien funcionan advertencias como estas en la práctica.

Algunas investigaciones también se muestran prometedoras para ayudar a las personas a identificar mejor los profundos, pero la investigación se encuentra en sus primeras etapas.

En general, estamos comenzando a darnos cuenta de la escala del problema. Suciriente, si los humanos se ahogan en AI Slop, también es probable que los modelos AI: AI entrenados en Internet “Enshitted” produzcan basura.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.

Cita: ¿Qué es AI Slop? Por qué está viendo más fotos y videos falsos en sus feeds de redes sociales (2025, 28 de mayo) recuperado el 28 de mayo de 2025 de https://techxplore.com/news/2025-05-ai-slop-fake-photos-videos.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button