Home Noticias del mundo Trump ordena a los militares que dejen de usar el chatbot Claude...

Trump ordena a los militares que dejen de usar el chatbot Claude en un enfrentamiento por la seguridad de la IA

12
0

Matt O’Brien y Konstantin Toropin

28 de febrero de 2026 – 13:30 h

Ahorrar

Ha alcanzado su número máximo de elementos guardados.

Elimine elementos de su lista guardada para agregar más.

Guarde este artículo para más tarde.

Agregue artículos a su lista guardada y vuelva a consultarlos en cualquier momento.

Entiendo

AAA

Washington: La administración Trump ordenó a todas las agencias estadounidenses que dejen de usar la tecnología de inteligencia artificial de Anthropic e impuso otras sanciones importantes en un choque inusualmente público entre el gobierno estadounidense y la compañía sobre la seguridad de la IA.

El presidente Donald Trump, el secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir que el ejército usara sin restricciones su tecnología de inteligencia artificial antes de la fecha límite del viernes (hora de EE. UU.), acusándolo de poner en peligro la seguridad nacional.

El secretario de Defensa de Estados Unidos, Pete Hegseth, ha designado a Anthropic y a su director ejecutivo, Dario Amodei, como riesgo para la cadena de suministro.

El Pentágono quiere utilizar el chatbot Claude de Anthropic para cualquier propósito dentro de los límites legales, pero sin restricciones de uso por parte de Anthropic. La firma ha insistido en que Claude no se utilice para vigilancia masiva contra estadounidenses ni en operaciones de armas totalmente autónomas.

La orden de Trump se produjo después de que el director ejecutivo de Anthropic, Dario Amodei, se negara a dar marcha atrás, citando preocupaciones de que los productos de la compañía pudieran usarse de manera que violarían sus salvaguardias.

“¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!” Trump dijo en las redes sociales.

Artículo relacionado

Hegseth consideró que la empresa representaba un “riesgo para la cadena de suministro”, una designación que normalmente se aplica a los adversarios extranjeros y que podría descarrilar las asociaciones críticas de la empresa con otras empresas.

Anthropic dijo que lucharía contra cualquier designación formal en los tribunales, describiéndola en un comunicado como “una acción sin precedentes, históricamente reservada para adversarios estadounidenses, nunca antes aplicada públicamente a una empresa estadounidense”.

El esfuerzo del gobierno por afirmar su dominio sobre la toma de decisiones interna de Anthropic se produce en medio de un choque más amplio sobre el papel de la IA en la seguridad nacional y preocupaciones sobre cómo máquinas cada vez más capaces podrían usarse en situaciones de alto riesgo que involucran fuerza letal, información sensible o vigilancia gubernamental.

Según The New York Times, si bien muchos usos militares de la inteligencia artificial aún se encuentran en una etapa de desarrollo, los modelos ya se utilizan activamente para el análisis de inteligencia.

Quitar a Claude de las computadoras del gobierno perjudicaría a los analistas de la Agencia de Seguridad Nacional que examinan las comunicaciones interceptadas en el extranjero y podría obstaculizar a los analistas de la CIA que buscan patrones en los informes de inteligencia, sugiere el documento.

Citando a ex funcionarios, el Times dijo que los líderes de la CIA están ansiosos por encontrar una manera de seguir utilizando a Claude, lo que ha acelerado su trabajo y profundizado su análisis. Antes de los comentarios de Trump, los funcionarios habían advertido que cualquier orden presidencial podría obligar a la agencia a buscar otras soluciones.

Trump arremete

Trump dijo que Anthropic había cometido un error al intentar presionar al Pentágono. Escribiendo en Truth Social, dijo que la mayoría de las agencias deben dejar de usar inmediatamente la IA de Anthropic, pero le dio al Pentágono un período de seis meses para eliminar gradualmente la tecnología que ya está integrada en las plataformas militares.

“¡Los Estados Unidos de América nunca permitirán que una compañía de izquierda radical dicte cómo nuestros grandes militares luchan y ganan guerras!” escribió en mayúsculas.

Después de que meses de conversaciones privadas explotaran en el debate público esta semana, Anthropic dijo el jueves que el nuevo lenguaje contractual del gobierno permitiría “ignorar las salvaguardias a voluntad”, a lo que Amodei dijo que su empresa “no puede acceder en conciencia”.

Páginas del sitio web de Anthropic. AP

Anthropic puede darse el lujo de perder el contrato. Pero las acciones del gobierno plantearon riesgos más amplios en el pico del meteórico ascenso de la compañía desde un poco conocido laboratorio de investigación en ciencias de la computación en San Francisco hasta una de las empresas emergentes más valiosas del mundo.

La decisión del presidente fue precedida por horas en las que altos funcionarios designados por Trump del Pentágono y el Departamento de Estado recurrieron a las redes sociales para criticar a Anthropic, pero sus quejas planteaban contradicciones.

El principal portavoz del Pentágono, Sean Parnell, dijo en las redes sociales el jueves que la posición de Anthropic estaba “poniendo en peligro operaciones militares críticas y potencialmente poniendo en riesgo a nuestros combatientes de guerra”.

Mientras tanto, Hegseth dijo el viernes que el Pentágono “debe tener acceso total y sin restricciones a los modelos de Anthropic para todos los fines LEGALES en defensa de la República”.

Artículo relacionado

La decisión de Hegseth de designar a Anthropic como un riesgo para la cadena de suministro utiliza una herramienta administrativa diseñada para evitar que las empresas propiedad de adversarios estadounidenses vendan productos perjudiciales para los intereses estadounidenses.

El senador Mark Warner, el principal demócrata en el comité de inteligencia del Senado, señaló que esta dinámica, “combinada con una retórica incendiaria que ataca a esa empresa, genera serias preocupaciones sobre si las decisiones de seguridad nacional están siendo impulsadas por un análisis cuidadoso o consideraciones políticas”.

Anthropic no respondió de inmediato a una solicitud de comentarios sobre las acciones de la administración Trump.

La disputa sacude a Silicon Valley

La disputa ha sorprendido a los desarrolladores en Silicon Valley, donde capitalistas de riesgo, destacados científicos de inteligencia artificial y muchos trabajadores de los principales rivales de Anthropic (OpenAI y Google) han respaldado la postura de Amodei en cartas abiertas y otros foros.

Es probable que la medida beneficie al chatbot competidor de Elon Musk, Grok, al que el Pentágono planea otorgar acceso a redes militares clasificadas, y podría servir como advertencia para Google y OpenAI, cuyos contratos para suministrar sus herramientas de inteligencia artificial al ejército aún están evolucionando.

Musk se puso del lado de la administración Trump y dijo en su plataforma de redes sociales X que “Anthropic odia la civilización occidental”.

Pero uno de los rivales más feroces de Amodei, el director ejecutivo de OpenAI, Sam Altman, se puso del lado de Anthropic y cuestionó la medida “amenazante” del Pentágono en una entrevista de CNBC y en una carta a los empleados, diciendo que OpenAI compartía las mismas líneas rojas. Amodei trabajó una vez para OpenAI antes de que él y otros líderes de OpenAI renunciaran para formar Anthropic en 2021.

“A pesar de todas las diferencias que tengo con Anthropic, confío principalmente en ellos como empresa, y creo que realmente se preocupan por la seguridad”, dijo Altman a CNBC, horas antes de reunir a los empleados para una reunión general el viernes (hora de EE. UU.).

El director ejecutivo de OpenAIs, Sam Altman, ha respaldado la posición de Anthropic sobre las salvaguardias de la IA. AP

El general retirado de la Fuerza Aérea Jack Shanahan, exlíder de las iniciativas de IA del Pentágono, escribió en las redes sociales esta semana que “pintar una diana en Anthropic genera titulares picantes, pero al final todos pierden”.

Shanahan dijo que Claude ya se estaba utilizando ampliamente en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic eran “razonables”. Dijo que los grandes modelos de lenguaje de inteligencia artificial que impulsan los chatbots como Claude, Grok y ChatGPT tampoco estaban “listos para el horario de máxima audiencia en entornos de seguridad nacional”, particularmente no para armas totalmente autónomas.

Anthropic “no intenta hacerse el lindo aquí”, escribió en LinkedIn. “No encontrará un sistema con un alcance más amplio y profundo en todo el ejército”.

AP

Obtenga una nota directamente de nuestros corresponsales extranjeros sobre lo que aparece en los titulares de todo el mundo. Suscríbase a nuestro boletín semanal What in the World.

Ahorrar

Ha alcanzado su número máximo de elementos guardados.

Elimine elementos de su lista guardada para agregar más.

De nuestros socios

Fuente de noticias