Home News Las aplicaciones desnudas de Deepfake se prohibirán en Australia bajo la legislación...

Las aplicaciones desnudas de Deepfake se prohibirán en Australia bajo la legislación histórica

5
0

Las leyes históricas dirigidas al inquietante aumento de la pornografía de Deepfake se introducirán en el Parlamento Federal.

El gobierno dijo que tomará medidas enérgicas contra el contenido generado por la IA sexualmente explícito al prohibir las aplicaciones Deepfake que crean imágenes desnudas.

Los defectos profundos son imágenes o visión manipuladas usando la cara o el cuerpo de una persona para que parezca que están haciendo algo que nunca sucedió, generalmente un acto sexual.

El gobierno federal dijo que las nuevas leyes son otro paso para proteger a los niños en línea. (Getty)

La nueva legislación restringirá el acceso o prohibirá las herramientas en línea que “desnudan” las imágenes de las personas.

Las aplicaciones de acoso en línea también serán capturadas en la legislación introducida al Parlamento.

“Hay un lugar para la IA y la tecnología de seguimiento legítimo en Australia, pero no hay lugar para aplicaciones y tecnologías que se usen únicamente para abusar, humillar y dañar a las personas, especialmente a nuestros hijos”, dijo el Ministro de Comunicaciones Anika Wells.

“Es por eso que el gobierno de Albanese usará cada palanca a nuestra disposición para restringir el acceso a la desnificación y las aplicaciones de acoso en línea indetectable y mantener a los australianos más seguros por los daños graves que causan.

“Esto es demasiado importante para que no actuemos.

“Las tecnologías abusivas son amplia y fácilmente accesible y están causando daños reales e irreparables ahora”.

Wells dijo que la responsabilidad estará en las grandes compañías tecnológicas para evitar la disponibilidad de estas aplicaciones una vez que la prohibición esté consagrada.

El Ministro de Comunicaciones, Anika Wells, dijo que el gobierno federal restringirá el acceso a las aplicaciones de Deepfake. (Alex Ellinghausen)

Se estima que el 98 por ciento de los profundos que circulan en línea son pornográficos y la mayoría de las víctimas representadas son mujeres.

La investigación de ESAFETY encontró que el tres por ciento de los niños informaron tener una imagen desnuda falsa no consensuada hecha de sí mismos.

Los líderes políticos y los defensores de los niños también se reunieron hoy en Canberra para discutir la acción urgente y la reforma de IA para garantizar que la protección infantil esté en la mente a medida que la tecnología evoluciona rápidamente.

La Mesa Redonda, organizada por el Centro Internacional de Niños Desaparecidos y Explotados (ICMEC) Australia, solicitó la capacitación de IA de base para investigaciones policiales, una revisión de 120 días de la capacidad de reconocimiento facial y una campaña de prevención y conciencia nacional sobre daños habilitados con AI.

Se estima que el 98 por ciento de los profundos que circulan en línea son pornográficos y la mayoría de las víctimas representadas son mujeres. (Getty)

“Reconocemos a la IA como una espada y un escudo en el paisaje de protección infantil”, dijo el presidente ejecutivo de ICMEC Australia, Colm Gannon.

“La IA puede ayudar a salvaguardar a los niños más rápido y reducir el daño en el lugar de trabajo para las investigaciones anotando o difuminando imágenes nocivas.

“Pero Australia necesita una hoja de ruta clara y financiada para aprovechar el bien y cerrar el daño”.

Fuente de noticias