La divulgación, el consentimiento y el poder de la plataforma se han convertido en campos de batalla recientemente vigorizados con el aumento de la IA.
El problema se destacó recientemente con la controvertida decisión de YouTube de usar herramientas con IA para “desbloquear, deshacer y mejorar la claridad” para algunos de los contenidos subido a la plataforma. Esto se hizo sin el consentimiento, o incluso el conocimiento, de los creadores de contenido relevantes. Los espectadores del material no sabían nada de la intervención de YouTube.
Sin transparencia, los usuarios tienen un recurso limitado para identificar, y mucho menos responder al contenido editado por AI. Al mismo tiempo, tales distorsiones tienen un historial que es significativamente anterior a las herramientas de IA de hoy.
Un nuevo tipo de edición invisible
Las plataformas como YouTube no son las primeras en participar en una manipulación de imágenes sutil.
Durante décadas, las revistas de estilo de vida tienen fotos “aerógrafas” para suavizar o afilar ciertas características. Los lectores no solo no son informados de los cambios, a menudo la celebridad en cuestión tampoco. En 2003, el actor Kate Winslet denunció enojado la elección de British GQ para alterarla Shot Shot, que incluía reducir su cintura, sin su consentimiento.
El público más amplio también ha mostrado un apetito por editar imágenes antes de publicar en las redes sociales. Esto tiene sentido. Uno Estudio 2021 Eso analizó 7,6 millones de fotos publicado por el usuario en Flickr encontradas que las fotos filtradas tenían más probabilidades de obtener vistas y compromiso.
Sin embargo, la decisión reciente de YouTube demuestra hasta qué punto los usuarios pueden no estar en el asiento del conductor.
Tiktok enfrentó un escándalo similar en 2021Cuando algunos usuarios de Android se dieron cuenta de que un “filtro de belleza” se había aplicado automáticamente a sus publicaciones sin su consentimiento o divulgación.
Esto es especialmente preocupante como investigación reciente ha encontrado un vínculo entre el uso de filtros Tiktok que mejora la apariencia y las preocupaciones de autoimagen.
Las alteraciones no reveladas también se extienden a fuera de línea. En 2018, se descubrió que los nuevos modelos de iPhone utilizaban automáticamente una función llamada Smart HDR (rango dinámico de alto) para “suavizar” la piel de los usuarios. Más tarde, esto fue descrito por Apple como un “error” y fue invertido.
Estos problemas también colisionaron en la esfera política australiana el año pasado. Nueve noticias publicadas Una foto modificada por la IA del diputado victoriano Georgie Purcell que expuso su maniobra, mientras que estaba cubierto en la foto original. No les dijeron a los espectadores que la imagen que usaban había sido editada con IA.
El problema tampoco se limita al contenido visual. En 2023, la autora Jane Friedman Encontré Amazon vendiendo Cinco libros generados por IA bajo su nombre. No solo no eran sus obras, sino que también plantearon el riesgo de daños de reputación significativos.
En cada uno de estos casos, las alteraciones algorítmicas se presentaron sin divulgación a quienes los vieron.
La divulgación de desaparición
La divulgación es una de las herramientas más simples que tenemos que adaptar a una realidad cada vez más alterada mediada por la IA.
La investigación sugiere Las empresas que son transparentes sobre su uso de algoritmos de IA tienen más probabilidades de ser confiadas por los usuarios con la confianza inicial de los usuarios en la empresa y el sistema de IA que juegan un papel importante.
Mientras que los usuarios han demostrado disminuir Confiar en los sistemas de IA a nivel mundialTambién han mostrado una confianza creciente en la IA que se han usado ellos mismos, incluida la creencia de que inevitablemente mejorará.
Entonces, ¿por qué las empresas todavía usan IA sin revelarla? Quizás sea porque las divulgaciones del uso de IA pueden ser problemáticas. La investigación ha encontrado revelar el uso de la IA Reduce constantemente Confía en la persona u organización relevante, aunque no tanto como si se descubra que hubieran usado IA sin divulgación.
Más allá de la confianza, el impacto de las divulgaciones es complejo. Investigación Es poco probable que las divulgaciones en la información errónea generada por la IA hagan que esa información sea menos persuasiva para los espectadores. Sin embargo, pueden hacer personas duda en compartir El contenido, por miedo a difundir la información errónea.
Navegando hacia el desconocido generado por la IA
Con el tiempo solo será más difícil identificar imágenes de IA confectadas y manipuladas. Incluso detectores de IA sofisticados seguir siendo un paso atrás.
Otro gran desafío para combatir la información errónea, un problema empeorado por el surgimiento de la IA, es sesgo de confirmación. Esto se refiere a la tendencia de los usuarios a ser menos críticos con los medios (IA o no) que confirme lo que ya creen.
Afortunadamente, hay recursos a nuestra disposición, siempre que tengamos la presencia de mente para buscarlos. Más joven consumidores de medios En particular, han desarrollado estrategias que pueden retroceder contra la marea de información errónea en Internet. Una de ellas es la triangulación simple, que implica buscar múltiples fuentes confiables para confirmar una noticia.
Los usuarios también pueden curar sus alimentos en las redes sociales gustando o siguiendo a las personas y grupos en los que confían, al tiempo que excluyen fuentes de calidad más pobres. Pero pueden enfrentar una batalla cuesta arriba, ya que plataformas como Tiktok y YouTube se inclinan hacia un modelo de desplazamiento infinito que Fomenta el consumo pasivo sobre compromiso a medida.
Si bien la decisión de YouTube de alterar los videos de los creadores sin consentimiento o divulgación está dentro de sus derechos legales como plataforma, pone a sus usuarios y contribuyentes en una posición difícil.
Y dados casos anteriores de otras plataformas importantes, así como disfrutan las plataformas digitales de energía descomunales, esta probablemente no será la última vez que esto suceda.
Proporcionado por la conversación
Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Cita: El escándalo de edición de IA de YouTube revela cómo se puede manipular la realidad sin nuestro consentimiento (2025, 3 de septiembre) recuperado el 3 de septiembre de 2025 de https://techxplore.com/news/2025-09-Outube-ai-scandal-revals-Reality.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.









