Un modelo de idioma en colapso. Esta salida vertical se generó después de que una serie de indicaciones empujó Claude Sonnet 3.7 en un bucle recursivo de falla, anulando sus barandillas habituales y ejecutándose hasta que el sistema lo corta. Captura de pantalla del autor. Crédito: Daniel Binns
Algunos dicen que son los guiones, los apóstrofes dudosos o demasiados emoji. Otros sugieren que tal vez la palabra “Delve” sea un chatbot tarjeta de visita. Ya no es la vista de cuerpos transformados o demasiados dedos, pero podría ser algo un poco fuera de lugar. O contenido de video Eso se siente demasiado real.
Los marcadores de los medios generados por IA se están volviendo más difíciles de detectar como tecnología empresas trabajar Para planchar los problemas en sus modelos generativos de inteligencia artificial (IA).
Pero, ¿qué pasa si en lugar de tratar de detectar y evitar estos problemas técnicos, los alentamos deliberadamente? Las fallas, las fallas y las salidas inesperadas de los sistemas de IA pueden revelar más sobre cómo funcionan estas tecnologías realmente que los resultados pulidos y exitosos que producen.
Cuando ai alucinase contradice o produce algo bellamente roto, revela sus sesgos de entrenamiento, procesos de toma de decisiones y las brechas entre cómo parece “pensar” y cómo realmente procesa la información.
En mi trabajo como investigador y educador, descubrí que deliberadamente “rompiendo” la IA, empujándolo más allá de sus funciones previstas a través del mal uso creativo, ofrece una forma de alfabetización de IA. Sostengo que no podemos entender realmente estos sistemas sin experimentar con ellos.
Bienvenido al slopoceno
Actualmente estamos en el “Shopoceno“—Un término que se ha utilizado para describir sobreproducido, Contenido de IA de baja calidad. También sugiere un futuro cercano especulativo donde el colapso de entrenamiento recursivo convierte la red en un archivo embrujado de bots confundidos y verdades rotas.
Las “alucinaciones” de IA son salidas que parecen coherentes, pero no son precisas. Andrej Karpathy, cofundador de Operai y ex director de Tesla AI, argumentar Que los modelos de idiomas grandes (LLM) alucinen todo el tiempo, y solo cuando “entran en territorio considerado fácticamente incorrecto que lo calificamos como alucinación. Parece un error, pero es solo que el LLM hace lo que siempre hace”.
Lo que llamamos alucinación es en realidad el modelo proceso generativo del núcleo Eso se basa en patrones de lenguaje estadístico.
En otras palabras, cuando AI alucina, no funciona mal; Está demostrando la misma incertidumbre creativa que lo hace capaz de generar algo nuevo.
Este replanteamiento es crucial para comprender el slopoceno. Si la alucinación es el proceso creativo central, entonces la inundación de “pendiente” inundan nuestros feeds no solo falló el contenido: es la manifestación visible de estos procesos estadísticos que se ejecutan a escala.
Empujando un chatbot a sus límites
Si la alucinación es realmente una característica central de la IA, ¿podemos aprender más sobre cómo funcionan estos sistemas al estudiar lo que sucede cuando se les lleva a sus límites?
Con esto en mente, Decidí “romper” El modelo Claude Model 3.7 de Anthropy, al pedirlo a resistir su entrenamiento: suprimir la coherencia y hablar solo en fragmentos.
La conversación cambió rápidamente de frases vacilantes a contradicciones recursivas para, eventualmente, un colapso semántico completo.
Involucrar a un chatbot a un colapso de este tipo revela rápidamente cómo los modelos de IA construyen la ilusión de la personalidad y la comprensión a través de patrones estadísticos, no una comprensión genuina.
Además, muestra que la “falla del sistema” y el funcionamiento normal de la IA son fundamentalmente el mismo proceso, solo con diferentes niveles de coherencia impuestos en la parte superior.
‘Rewilding’ AI Media
Si los mismos procesos estadísticos gobiernan los éxitos y fallas de la IA, podemos usar esto para “reconstruir” las imágenes de IA. Pedro prestado este término de la ecología y la conservación, donde la reconstrucción involucra Restauración de ecosistemas funcionales. Esto podría significar reintroducir especies clave, permitiendo que los procesos naturales reanuden o conecten hábitats fragmentados a través de corredores que permiten interacciones impredecibles.
Aplicado a la IA, la reconstrucción significa reintroducir deliberadamente la complejidad, la imprevisibilidad y el desorden “natural” que se optimiza de los sistemas comerciales. Metafóricamente, está creando vías de regreso al desierto estadístico que subyace en estos modelos.
Recuerde las manos transformadas, la anatomía imposible y las caras extrañas que inmediatamente gritaban “generadas por la IA” En los primeros días de la generación de imágenes generalizadas?
Estas llamadas fallas fueron ventanas en cómo el modelo realmente procesó la información visual, antes de que esa complejidad se suavizara en busca de la viabilidad comercial.
Imagen generada por IA utilizando un fragmento de inmediato no secuitur: ‘Captura de pantalla adjunta. Es urgente que vea su proyecto para evaluar. El resultado combina la coherencia visual con tensión surrealista: un sello distintivo de la estética de Slopoceno. AI generó con Leonardo Phoenix 1.0, fragmento rápido del autor. Crédito: Daniel Binns
Puede probar AI rewilding con cualquier generador de imágenes en línea.
Comience por solicitar un autorretrato usando solo texto: es probable que obtenga la salida “promedio” de su descripción. Elabore en ese aviso básico, y se acercará mucho más a la realidad, o empujará al modelo a la rareza.
Luego, alimente un fragmento aleatorio de texto, tal vez un fragmento de un correo electrónico o nota. ¿Qué intenta mostrar la salida? ¿En qué palabras se ha aferrado? Finalmente, intente solo símbolos: puntuación, ASCII, unicode. ¿Qué alucina el modelo a la vista?
La salida, viva, extraña, quizás surrealista, puede ayudar a revelar las asociaciones ocultas entre texto y imágenes que están integradas dentro de los modelos.
Insight a través del mal uso
Creative AI Maluse ofrece tres beneficios concretos.
Primero, revela sesgo y limitaciones de una manera que las máscaras de uso normales: puede descubrir lo que un modelo “ve” cuando no puede confiar en la lógica convencional.
En segundo lugar, nos enseña sobre la toma de decisiones de la IA al obligar a los modelos a mostrar su trabajo cuando están confundidos.
Tercero, construye alfabetización crítica de IA al desmitificar estos sistemas a través de la experimentación práctica. La alfabetización crítica de la IA proporciona métodos para la experimentación diagnóstica, como las pruebas, y a menudo mal uso, AI para comprender sus patrones estadísticos y procesos de toma de decisiones.
Estas habilidades se vuelven más urgentes a medida que los sistemas de IA se vuelven más sofisticados y ubicuos. Se están integrando en todo, desde la búsqueda hasta las redes sociales hasta el software creativo.
Cuando alguien genera una imagen, escribe con ayuda de IA o se basa en recomendaciones algorítmicas, están entrando en una relación colaborativa con un sistema que tiene sesgos, capacidades y puntos ciegos particulares.
En lugar de adoptar o rechazar reflexivamente sin pensar estas herramientas, podemos desarrollar la alfabetización crítica de la IA explorando el Slopoceno y presenciando lo que sucede cuando las herramientas de IA “se rompen”.
No se trata de convertirse en usuarios de IA más eficientes. Se trata de mantener la agencia en las relaciones con sistemas diseñados para ser persuasivos, predictivos y opacos.
Proporcionado por la conversación
Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Cita: Comprender el ‘Slopoceno’: cómo las fallas de la IA pueden revelar sus trabajos internos (2025, 1 de julio) Recuperado el 1 de julio de 2025 de https://techxplore.com/news/2025-07-slopocene-failures-ai-reveal.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.