Home Entretenimiento El acuerdo de IA de SAG-AFTRA muestra que Hollywood todavía valora a...

El acuerdo de IA de SAG-AFTRA muestra que Hollywood todavía valora a los actores humanos

2
0

Hay un contingente de actores que verán cualquier cosa que no sea una prohibición total de la IA y los artistas sintéticos en Hollywood como un fracaso por parte de su sindicato. Pero después de declararse en huelga en 2023 para establecer reglas básicas sobre compensación y consentimiento en lo que respecta a la IA, el objetivo del gremio en 2026 era asegurarse de que los estudios valoraran a los actores humanos más que cualquier creación de IA.

Es posible que el nuevo acuerdo tentativo de SAG-AFTRA con AMPTP, acordado el 2 de mayo, no tenga la nueva protección que acapare los titulares y que impedirá que un estudio utilice un actor sintético si así lo desea. Pero el gremio sí cumplió la misión de demostrar que las personas reales frente a la pantalla todavía importan.

Como fue el caso con el Writers Guild en su acuerdo alcanzado con AMPTP, el nuevo contrato de SAG-AFTRA no reduce ninguna de las victorias recibidas en 2023. La tecnología ha mejorado enormemente en los últimos tres años, por lo que es comprensible que haya presión sobre los estudios para que alivien algunas restricciones, pero eso no sucedió. Es una señal de que, bueno, tal vez a los estudios todavía les importe.

“El hecho de que los estudios no estén presionando para obtener más exenciones es una señal de que Hollywood todavía depende de personas reales”, dijo Ray Seilie, abogado litigante que se especializa en cuestiones de inteligencia artificial con Kinsella Holley Iser Kump Steinsapir. “Los estudios no ven a las personas reales como prescindibles en este momento. Las ven como el núcleo necesario para la producción de películas. Si no creyeran eso, veríamos muchas más reacciones negativas”.

Resumen publicado de SAG-AFTRA del acuerdo de negociación mínimo para 2026 incluye 12 disposiciones diferentes relacionadas con la IA. Implican reglas sobre réplicas digitales, seguridad de esas réplicas, una penalización por el uso de un actor sintético en lugar de un actor real, e incluso aviso si un estudio otorga licencia de los datos de un actor a un tercero para datos de entrenamiento de IA. Todo eso es la guinda del pastel para un acuerdo que incluye aumentos mínimos del 3 por ciento compuesto cada año, nuevas reglas para proteger a los actores de fondo, en torno al casting, microdramas verticales y la fusión del plan de pensiones SAG y el plan de jubilación AFTRA con algunos fondos nuevos, todo mientras se acepta un plazo que para este contrato dura cuatro años en lugar de tres.

La abogada laboral María Rodríguez de McDermott Will & Schulte dijo a IndieWire que estaba “muy impresionada” por este acuerdo “minucioso” y “sólido” que abarca numerosas áreas y no excluye a ningún miembro. En lo que respecta a la IA, sostiene que el gremio se basó en el contrato anterior de la IA en formas pequeñas, pero significativas.

“Están siendo más específicos”, dijo Rodríguez. “Y creo que parte de esto es que se aprende a medida que las cosas evolucionan. Los contratos siempre evolucionarán junto con nuestra experiencia y cómo se usa, se debe usar o se puede usar la IA”.

Por ejemplo, Rodríguez señaló cómo el nuevo contrato redujo la definición de lo que es un uso aceptable de una réplica digital para alterar una actuación “guionizada”. El antiguo contrato dejaba cierto margen de maniobra sobre lo que se podía y no se podía hacer en la sala de edición, pero ahora especifica que el “guión” se refiere al material que realmente se entregó al actor y no a algo que se escribió más tarde.

También reconoce cómo ha evolucionado la tecnología de inteligencia artificial. Hoy en día no es necesario un escaneo completo para hacer una réplica digital, por lo que los nuevos términos especifican que una réplica digital realizada incluso sin la ayuda del actor sigue contando de la misma manera que un escaneo completo. Lo mismo ocurre con los escaneos que los productores no hicieron ellos mismos en esa película sino que provienen de un tercero; el pago sigue siendo el mismo. Si bien ninguna de estas cosas cambia necesariamente la forma en que los estudios podrían usar o pensar sobre la IA, cierra algunas lagunas importantes.

El resumen también describe protecciones similares para los actores en segundo plano e incluso, de manera crucial, para los menores. Parece increíble que decir que una réplica digital de un niño actor no puede usarse para una actividad sexual simulada no fuera ya una estipulación anteriormente, pero ahora lo es.

“Creo que está realmente restringido”, dijo Rodríguez. “Entran en una protección uniforme contra los ataques. No se permitirá que las réplicas digitales reemplacen a los actores en huelga, lo que creo que también es una característica de protección”.

También se presta atención a la seguridad de las réplicas digitales, reconociendo que los estudios deben tomar medidas para proteger estos escaneos y datos contra hackeos, filtraciones o uso no autorizado, incluso para actores en segundo plano. Seilie argumentaría que esta medida, junto con las pautas sobre valorar a los humanos sobre los sintéticos, probablemente no fuera difícil de aceptar para los estudios. Ellos también quieren proteger su propiedad intelectual en lo que respecta a la seguridad, y tampoco saben cómo evolucionarán estas tecnologías. Sora de OpenAI, por ejemplo, ya ni siquiera existe.

El contrato también dice que un estudio debe demostrar un “valor adicional significativo” por el uso de un material sintético, lo cual es lo suficientemente vago como para que Seilie crea que no sería tan difícil para cualquier estudio hacerlo si así lo quisiera. Entonces, si bien las pautas son un poco vagas en lugar de disposiciones contractuales ejecutables, Seilie sostiene que puede ser por diseño.

“Sospecho que estas disposiciones están diseñadas para ser abiertas, vagas y sujetas a futuras negociaciones, específicamente porque ambas partes, francamente, quieren dejar abierta la posibilidad de que la tecnología les obligue a revisar cualquier acuerdo que tengan en este momento”, dijo Seilie.

Muchas de las disposiciones mencionan específicamente que las dos partes acordarán negociar nuevamente más adelante, y Rodríguez dice que es clave contar con un procedimiento para futuras conversaciones a medida que evolucionen los casos de uso. También vale la pena señalar que este es un acuerdo mínimo, el que protege a los actores secundarios y especialistas en mayor riesgo de ser reemplazados. Los verdaderos acontecimientos ocurrirán una vez que las estrellas de primer nivel comiencen a negociar con los estudios sobre lo que es aceptable con su imagen.

Pero un aspecto que aún queda sin resolver son los datos de entrenamiento de modelos de terceros. Los actores no tienen derecho a decirle a los estudios qué hacer con su propiedad intelectual y este contrato no les otorga ese poder. Pero lo que sí hace es exigir a los estudios que notifiquen al actor si su imagen ha sido autorizada a un tercero para su uso en un modelo de IA. Puede que eso no parezca mucho si no tienes ningún recurso legal para impedir que los estudios lo hagan. Pero sí impide que alguien otorgue en secreto una licencia de su interpretación o imagen a una empresa como OpenAI o Anthropic.

“La transparencia es valiosa”, dijo Seilie. “Hollywood se basa en la percepción pública. El hecho de que un actor ahora tendrá el poder de decir: ‘No quería que el estudio hiciera esto, pero no tengo ningún poder sobre ellos’… puedes imaginar que hay un uso potencial de relaciones públicas. Hay algo de valor ahí, porque OpenAI no será transparente a menos que tenga que serlo”.

Fuente de noticias