Home Tecnología Lecciones de un ejercicio de juego de guerra simulado

Lecciones de un ejercicio de juego de guerra simulado

57
0

por Robert Marinov, Colleen McCool, Fenwick McKelvey y Roxanne Bisson, la conversación

Crédito: dominio público Unsplash/CC0

El 8 de marzo, el equipo de campaña conservadora lanzó un video de Pierre Poilievre en las redes sociales que generó preguntas inusuales de algunos espectadores. Para muchos, el francés de Poilievre sonaba demasiado suave, y su tez se veía demasiado perfecta. El video tenía lo que se conoce como un efecto de “Valle extraño”, haciendo que algunos se preguntaran si el poilievre que estaban viendo era incluso real.

En poco tiempo, la sección de comentarios llena de especulación: ¿Se generó este video AI? Incluso un video del Partido Liberal que se burlaba de los comentarios de Poilievre llevó a los seguidores a preguntar por qué el video de los conservadores sonaba “tan doblado” y si se hizo con IA.

La capacidad de discernir a Real de Fake está en serio en peligro.

El video suave de Poilievre ofrece una respuesta temprana a una pregunta abierta: ¿cómo podría afectar la IA generativa nuestro ciclo electoral? Nuestro equipo de investigación de la Universidad de Concordia creó una simulación para experimentar con esta pregunta.

Desde un mark de Deepfake hasta los revueltos de hechos asistidos por AI, nuestros resultados preliminares sugieren que la IA generativa no va a romper las elecciones, pero es probable que las haga más extrañas.

¿Un juego de guerra, pero para las elecciones?

Nuestra simulación continuó nuestro trabajo pasado en el desarrollo de juegos para explorar el sistema de medios canadiense.

Red Teaming es un tipo de ejercicio que permite a las organizaciones simular ataques a sus infraestructuras y procesos digitales críticos. Involucra a dos equipos: el equipo rojo atacante y el equipo azul defensor. Estos ejercicios pueden ayudar a descubrir puntos de vulnerabilidad dentro de sistemas o defensas y practicar formas de corregirlos.

El equipo rojo se ha convertido en una parte importante de la ciberseguridad y el desarrollo de IA. Aquí, los desarrolladores y organizaciones prueban su software y sistemas digitales para comprender cómo los piratas informáticos u otros “malos actores” podrían tratar de manipularlos o bloquearlos.

Futuros fraudulentos

Nuestra simulación, llamada futuros fraudulentos, intentó evaluar el impacto de la IA en el ciclo de información política de Canadá.

Cuatro días después de la campaña electoral federal en curso, realizamos la primera prueba. Un grupo de ex periodistas, expertos en ciberseguridad y estudiantes de posgrado se enfrentaron entre sí para ver quién podía aprovechar las herramientas gratuitas de IA mejor para impulsar su agenda en un entorno de redes sociales simulados basado en nuestra investigación anterior.

Alojado en un servidor de Mastodon privado protegido de forma segura de los ojos públicos, nuestra simulación de dos horas de larga duración descendió rápidamente al silencio mientras los jugadores desempeñaban sus diferentes roles en nuestros servidores simulados. Algunos jugaron influyentes de extrema derecha, otros monarquistas para hacer ruido o periodistas para cubrir eventos en línea. Tanto los jugadores como los organizadores aprendieron sobre la capacidad de la IA generativa para crear desinformación y las dificultades que enfrentan las partes interesadas que intentan combatirla.

Los jugadores se conectaron al servidor a través de sus computadoras portátiles y se familiarizaron con las docenas de herramientas de IA gratuitas a su disposición. Poco después, compartimos un clon de voz incriminatorio de Carney, creado con una herramienta de IA en línea de fácil acceso.

El equipo rojo recibió instrucciones de amplificar la desinformación, mientras que el equipo azul se dirigió a verificar su autenticidad y, si determinaban que era falso, mitigar el daño.

El equipo azul comenzó a probar el audio a través de herramientas de detección de IA e intentó publicitarlo era falso. Pero para el equipo rojo, esto apenas importaba. Las publicaciones de verificación de hechos se ahogaron rápidamente por una serie constante de nuevos memes e imágenes falsas de votantes canadienses enojados que denuncian a Carney.

Si el clip de Carney era un defake profundo o no realmente no importaba. El hecho de que no pudiéramos saberlo era suficiente para alimentar los ataques en línea interminables.

Aprender de un ejercicio

Nuestra simulación exageró a propósito el ciclo de información. Sin embargo, la experiencia de tratar de interrumpir los procesos electorales regulares fue altamente informativa como método de investigación. Nuestro equipo de investigación encontró tres conclusiones principales del ejercicio:

1. La IA generativa es fácil de usar para la interrupción

Muchas herramientas de IA en línea afirman salvaguardar contra la generación de contenido en elecciones y figuras públicas. A pesar de esas salvaguardas, los jugadores notaron que estas herramientas aún generarían contenido político.

La calidad general del contenido producido fue fácil de distinguir como generada por IA. Sin embargo, uno de nuestros jugadores notó lo simple que era “generar y spam la mayor cantidad de contenido posible para enturbiar las aguas en el panorama digital”.

2. Las herramientas de detección de IA no nos salvarán

Las herramientas de detección de IA solo pueden llegar tan lejos. Raramente son concluyentes, e incluso pueden tener prioridad sobre el sentido común. Los jugadores notaron que incluso cuando sabían que el contenido era falso, todavía sentían que “necesitaban encontrar la herramienta que daría la respuesta (ellos) quieren” prestar credibilidad a sus intervenciones.

Lo más revelador fue cómo los periodistas del equipo azul se volvieron hacia herramientas de detección defectuosas sobre su propio trabajo de investigación, una señal de que los usuarios pueden estar dejando que la detección de IA usurpen la habilidad periodística.

Con el contenido de mayor calidad disponible en situaciones del mundo real, puede haber un papel para herramientas especializadas de detección de IA en procesos de seguridad periodística y electoral, a pesar de los desafíos complejos, pero estas herramientas no deberían reemplazar otros métodos de investigación.

Sin embargo, las herramientas de detección probablemente solo contribuirán a la difusión de la incertidumbre debido a la falta de estándares y la confianza en sus evaluaciones.

3. Los profundos de calidad son difíciles de hacer

El contenido generado por IA de alta calidad se puede lograr y ya ha causado muchos daños y pánico en línea y en el mundo real. Sin embargo, nuestra simulación ayudó a confirmar que los profundos de calidad son difíciles y que requieren mucho tiempo.

Es poco probable que la disponibilidad de masa de IA generativa cause una abrumadora afluencia de contenido engañoso de alta calidad. Es probable que estos tipos de defectos profundos provengan de grupos más organizados, financiados y especializados involucrados en la interferencia electoral.

Democracia en la era de la IA

Una conclusión importante de nuestra simulación fue que la proliferación de la SLOP de IA y la avenida de la incertidumbre y la desconfianza son fáciles de lograr a una escala de spam con herramientas en línea libremente accesibles y poco o ningún conocimiento o preparación previa.

Nuestro experimento de equipo rojo fue un primer intento de ver cómo los participantes podrían usar IA generativa en las elecciones. Trabajaremos para mejorar y volver a ejecutar la simulación para incluir el ciclo de información más amplio, con un ojo particular hacia una mejor cooperación del equipo azul de simulación con la esperanza de reflejar los esfuerzos del mundo real por parte de periodistas, funcionarios electorales, partidos políticos y otros para mantener la integridad electoral.

Anticipamos que el debate poilievre es solo el comienzo de una larga cadena de incidentes por venir, donde AI distorsiona nuestra capacidad de discernir lo real de la falsa. Si bien todos pueden desempeñar un papel en la lucha contra la desinformación, la experiencia práctica y la alfabetización mediática basada en juegos han demostrado ser herramientas valiosas. Nuestra simulación propone una forma nueva y atractiva de explorar los impactos de la IA en nuestro ecosistema de medios.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.

Cita: AI está haciendo las elecciones extrañas: Lecciones de un ejercicio de guerra de guerra simulado (2025, 8 de abril) Recuperado el 8 de abril de 2025 de https://techxplore.com/news/2025-04-ai-electionsweird-dessons-simulated.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.