Por DAVID KLEPPER, MATT O’BRIEN y KONSTANTIN TOROPIN, Associated Press
WASHINGTON (AP) — El secretario de Defensa, Pete Hegseth, le dio al director ejecutivo de Anthropic un plazo el viernes para abrir la tecnología de inteligencia artificial de la compañía para uso militar sin restricciones o correr el riesgo de perder su contrato con el gobierno, según una persona familiarizada con su reunión del martes.
Anthropic fabrica el chatbot Claude y es el último de sus pares que no suministra su tecnología a un nueva red interna militar estadounidense. El director general Dario Amodei ha dejado claro en repetidas ocasiones su preocupaciones éticas sobre el uso incontrolado de la IA por parte del gobierno, incluido el Peligros de los drones armados totalmente autónomos. y de vigilancia masiva asistida por IA que podría rastrear la disidencia.
Los funcionarios de defensa advirtieron que podrían designar a Anthropic como un riesgo para la cadena de suministro o usar la Ley de Producción de Defensa para esencialmente darle al ejército más autoridad para usar sus productos incluso si no aprueba cómo se usan, según la persona familiarizada con la reunión y un alto funcionario del Pentágono, quienes no estaban autorizados a hacer comentarios públicamente y hablaron bajo condición de anonimato.
El desarrollo, que fue informado anteriormente por Axios, subraya el debate sobre el papel de la IA en la seguridad nacional y las preocupaciones sobre cómo podría usarse la tecnología en situaciones de alto riesgo que involucren fuerza letal, información sensible o vigilancia gubernamental. También se produce cuando Hegseth ha prometido erradicar lo que él llama una “cultura despierta” en las fuerzas armadas.
“Una poderosa IA que analice miles de millones de conversaciones de millones de personas podría medir el sentimiento del público, detectar focos de deslealtad que se están formando y erradicarlos antes de que crezcan”, escribió Amodei en un ensayo el mes pasado.
La persona familiarizada calificó el tono de la reunión como cordial, pero dijo que Amodei no cedió en dos áreas que ha establecido como líneas que Anthropic no cruzará: operaciones militares totalmente autónomas contra objetivos y vigilancia interna de ciudadanos estadounidenses.
El Pentágono se opone a las restricciones éticas de Anthropic porque las operaciones militares necesitan herramientas que no tengan limitaciones incorporadas, dijo el alto funcionario del Pentágono. El funcionario argumentó que el Pentágono sólo ha emitido órdenes legales y enfatizó que el uso legal de las herramientas de Anthropic sería responsabilidad de los militares.
El Secretario de Defensa, Pete Hegseth, abandona una ceremonia de juramento de alistamiento, el viernes 6 de febrero de 2026, celebrada en la base del Monumento a Washington en Washington. (Foto AP/Kevin Wolf)
Anthropic ya no será la única empresa de inteligencia artificial aprobada para redes militares clasificadas
El Pentágono anunció el verano pasado que iba a adjudicar contratos de defensa a cuatro empresas de inteligencia artificial: Anthropic, Google, OpenAI y xAI de Elon Musk. Cada contrato vale hasta 200 millones de dólares.
Anthropic fue la primera empresa de inteligencia artificial en obtener la aprobación para redes militares clasificadas, donde trabaja con socios como Palantir. La compañía xAI de Musk, que opera el chatbot Grok, dice que Grok también está listo para ser utilizado en entornos clasificados, según el alto funcionario del Pentágono.
El funcionario señaló que las otras empresas de IA estaban “cerca” de ese hito. SpaceX, la compañía de vuelos espaciales de Musk que recientemente se fusionó con xAI, no respondió de inmediato a una solicitud de comentarios el martes.
Hegseth dijo en un discurso en enero en SpaceX en el sur de Texas que estaba haciendo caso omiso de cualquier modelo de IA “que no le permitirá librar guerras”.
Hegseth dijo que su visión para sistemas militares de IA significa que operan “sin restricciones ideológicas que limiten las aplicaciones militares legales”, antes de agregar que la “IA no será despierta” del Pentágono.
El secretario de defensa dijo ese grok se uniría a la red segura pero no clasificada de IA del Pentágono, llamada GenAI.mil. El anuncio se produjo días después de que Grok, que está integrado en X, la red social propiedad de Musk, atrajera el escrutinio mundial por generando imágenes deepfake altamente sexualizadas de personas sin su consentimiento.
OpenAI anunció a principios de febrero que también se uniría a GenAI.mil, lo que permitiría a los miembros del servicio utilizar una versión personalizada de ChatGPT para tareas no clasificadas.
Anthropic se autodenomina más preocupado por la seguridad
Anthropic dijo en un comunicado después de la reunión del martes que “continuó las conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda continuar apoyando la misión de seguridad nacional del gobierno de acuerdo con lo que nuestros modelos pueden hacer de manera confiable y responsable”.
Anthropic se ha presentado durante mucho tiempo como la empresa líder en inteligencia artificial más responsable y preocupada por la seguridad, desde su creación. Los fundadores abandonaron OpenAI para formar la startup en 2021..
La incertidumbre con el Pentágono está poniendo a prueba esas intenciones, según Owen Daniels, director asociado de análisis y miembro del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.
“Los pares de Anthropic, incluidos Meta, Google y xAI, han estado dispuestos a cumplir con la política del departamento sobre el uso de modelos para todas las aplicaciones legales”, dijo Daniels. “Por lo tanto, el poder de negociación de la empresa aquí es limitado y corre el riesgo de perder influencia en el impulso del departamento para adoptar la IA”.
En el Locura por la IA que siguió al lanzamiento de ChatGPT, Anthropic se alineó estrechamente con la administración demócrata del presidente Joe Biden al ofrecerse voluntariamente para someter sus sistemas de inteligencia artificial al escrutinio de terceros para protegerse contra riesgos de seguridad nacional.
Amodei, el director general, ha advertido de Los peligros potencialmente catastróficos de la IA al mismo tiempo que rechaza la etiqueta de que es un “doomer” de la IA. Sostuvo en el ensayo de enero que “estamos considerablemente más cerca del peligro real en 2026 que en 2023”, pero que esos riesgos deben gestionarse de una “manera realista y pragmática”.
Anthropic ha estado en desacuerdo con la administración Trump
Esta no sería la primera vez que la defensa de Anthropic por salvaguardias más estrictas para la IA lo pone en desacuerdo con la administración del presidente Donald Trump. Anthropic criticó públicamente al fabricante de chips Nvidia, criticando las propuestas de Trump de flexibilizar los controles de exportación a permitir la venta de algunos chips de computadora con inteligencia artificial en China. La empresa de IA, sin embargo, sigue siendo una socio cercano con Nvidia.
La administración republicana de Trump y Anthropic también han estado en lados opuestos de un esfuerzo de cabildeo para regular la IA en los estados de EE. UU.
El principal asesor de Trump en materia de inteligencia artificial, David Sacks, acusó a Anthropic en octubre de “ejecutar una sofisticada estrategia de captura regulatoria basada en infundir miedo”.
Sacks estaba respondiendo en X al cofundador de Anthropic, Jack Clark, escribiendo sobre su intento de equilibrar el optimismo tecnológico con el “miedo apropiado” sobre la marcha constante hacia sistemas de IA más capaces.
Anthropic contrató a varios exfuncionarios de Biden poco después del regreso de Trump a la Casa Blanca, pero también ha tratado de señalar un enfoque bipartidista. La compañía recientemente incorporó a su junta directiva a Chris Liddell, exfuncionario de la Casa Blanca durante el primer mandato de Trump.
La adopción “vertiginosa” de la IA por parte del Pentágono muestra la necesidad de una mayor supervisión o regulación de la IA por parte del Congreso, particularmente si la IA se utiliza para vigilar a los estadounidenses, dijo Amos Toh, abogado principal del Programa de Libertad y Seguridad Nacional del Centro Brennan en la Universidad de Nueva York.
“La ley no sigue el ritmo de la rápida evolución de la tecnología”, escribió Toh en una publicación en Bluesky. “Pero eso no significa que el Departamento de Defensa tenga un cheque en blanco”.
O’Brien informó desde Providence, RI









