Noticias Locales

Di Doménica: “Siete de cada diez argentinos no saben qué es un defake”

En el diálogo con el Canal E, el periodista y maestro Sebastián di Doménica advirtió sobre la facilidad con la que pueden crear infartos profundos y la vulnerabilidad de la ciudadanía antes de este tipo de desinformación.

La creciente amenaza de los defensores

“Hacer un defake profundo hoy es muy simple”, dijo el entrevistador al explicar que hay plataformas, incluso gratuitas, que permiten crear videos o audios que emulen perfectamente a las personas reales. “A alguien se le puede decir cualquier cosa, con su propia imagen y su propia voz”, explicó, dejando en claro el enorme potencial de manipulación que representa esta tecnología.

Di Doménica enfatizó que esta capacidad no solo es accesible, sino que ya está teniendo un impacto directo en contextos sensibles como campañas electorales o procesos democráticos. El caso reciente de un video falso de Mauricio Macri, transmitido a plena prohibición, es solo una muestra de este fenómeno en expansión.

Cómo detectar un defake profundo

El especialista recomendó una actitud crítica y un aspecto entrenado. “En los videos tienes que mirar los ojos, porque no parpadean bien ni lo hacen extrañamente”, explicó.

También mencionó que las arrugas, el brillo de la piel y otros detalles faciales pueden traicionar una falsificación. En cuanto al audio, “las voces son similares, pero con una cadencia diferente, más lenta o más acelerada”, dijo.

Pero no todo se reduce al ojo humano. Di Doménica advirtió que la mayoría de las personas no están preparadas para distinguir un defake profundo. “Siete de cada diez argentinos no saben qué es un defake profundo”, advirtió. Esto, agregado a la circulación masiva en redes como WhatsApp y Twitter, genera un entorno perfecto para la información errónea.

Educación digital y sentido crítico

Dado este escenario, Di Doménica fue categórica: “La clave es que las personas tienen un aspecto crítico y confirman la información”. Apeló el sentido común como una herramienta de defensa, pero también enfatizó la importancia de la educación digital para que las personas aprendan a verificar el contenido. “Vamos por un momento en que lo que parece no puede no”, advirtió.

Además, destacó la necesidad de verificar las fuentes. En el caso del video de Macri, fue suficiente consultar sus redes oficiales o los medios de comunicación: “Fue un anuncio demasiado importante para que ningún medio lo levantara”, explicó.

Regulaciones urgentes para redes e IA

Cuando se le preguntó sobre la posibilidad de rastrear el origen de un video falso, el especialista fue abrumador: “Es un gris, porque las regulaciones son difusas”. Si bien la justicia podría avanzar, el problema es estructural: “Las redes sociales se benefician de los virales y toman tiempo para reaccionar”, dijo.

Para el entrevistado, estas prácticas socavan la democracia y distorsionan la opinión pública. Es por eso que valoró los avances europeos en asuntos regulatorios: “Ya están las regulaciones sobre la IA, que evalúa los riesgos y requiere etiquetado”. Sin embargo, en América Latina, todavía está lejos de alcanzar estándares similares.

Inteligencia artificial y nuevos desafíos

Finalmente, Di Doménica celebró el avance tecnológico en otros frentes, como las traducciones en tiempo real. “Permitirá hablar con personas de cualquier país en todo momento”, dijo sobre la nueva función de Google Meet.

Aunque aclaró que esto no reemplaza el valor de los idiomas de aprendizaje, reconoció su utilidad para los periodistas y creadores de contenido global.

En ese sentido, hizo una diferenciación clave entre la ayuda y el reemplazo: “La inteligencia artificial puede ayudarme mucho, pero para escribir una nota que tengo que sentarme”, dijo. Y concluyó con una reflexión contundente: “Tenemos que pensar que lo que vemos puede ser irreal, incluso si parece real”.

Back to top button