Home Noticias del mundo Anthrope propone un marco de transparencia para los modelos de IA fronteriza

Anthrope propone un marco de transparencia para los modelos de IA fronteriza

13
0

La startup de inteligencia artificial (AI) Anthrope presentó un marco “dirigido” el lunes, proponiendo una serie de reglas de transparencia para el desarrollo de modelos de IA fronterizos.

El marco busca establecer “requisitos de divulgación claros para las prácticas de seguridad” mientras permanece “ligero y flexible”, la compañía subrayó en un comunicado de prensa.

“La IA avanza rápidamente”, escribió. “Mientras que la industria, los gobiernos, la academia y otros trabajan para desarrollar estándares de seguridad acordados y métodos de evaluación integrales, un proceso que podría llevar meses o años, necesitamos pasos intermedios para garantizar que la IA muy poderosa se desarrolle de forma segura, responsable y transparente”.

Las reglas propuestas de Anthrope se aplicarían solo a los desarrolladores más grandes de modelos fronterizos o a los modelos de IA más avanzados.

Requerirían que los desarrolladores desarrollen y publiquen públicamente un marco de desarrollo seguro, detallando cómo evalúan y mitigan los riesgos irrazonables. Los desarrolladores también estarían obligados a publicar una tarjeta del sistema, resumiendo los procedimientos de prueba y evaluación.

“Los requisitos de transparencia para los marcos de desarrollo seguros y las tarjetas del sistema podrían ayudar a dar a los formuladores de políticas la evidencia que necesitan para determinar si se justifica una mayor regulación, así como proporcionar al público información importante sobre esta nueva tecnología poderosa”, agregó la compañía.

El marco propuesto por la firma de IA se produce inmediatamente después de la derrota la semana pasada de una disposición en el proyecto de ley de impuestos y gastos del presidente Trump que inicialmente buscó prohibir la regulación estatal de IA durante 10 años.

El CEO de Anthrope, Dario Amodei, se enfrentó a la medida el mes pasado, calificándolo de “un instrumento demasiado contundente” para mitigar los riesgos de la tecnología en rápida evolución. La moratoria de la IA fue eliminada en última instancia del proyecto de ley de reconciliación antes de aprobar el Senado.

El marco de la Compañía obtuvo elogios del grupo de defensa de la IA American para la innovación responsable (ARI), que promocionó antrópico por “mover el debate de si deberíamos tener regulaciones de IA a cuáles deberían ser esas regulaciones”.

“Hemos escuchado a muchos CEOs decir que quieren regulaciones, luego derribar cualquier cosa específica que se proponga, por lo que es bueno ver un plan concreto proveniente de la industria”, dijo Eric Gastfriend, director ejecutivo de ARI, en un comunicado.

“El marco de Anthrope avanza algunos de los requisitos de transparencia básicos que necesitamos, como lanzar planes para mitigar los riesgos y responsabilizar a los desarrolladores de esos planes”, continuó. “Esperemos que esto traiga otros laboratorios a la mesa en la conversación sobre cómo deberían ser las regulaciones de IA”.

Fuente de noticias