Microsoft se une a Anthropics en disputa legal con el Pentágono

Anthropics se niega a que su tecnología sea para vigilancia masiva o armas autónomas letales sin salvaguarda humana

Regeneración, 12 de marzo de 2026. En redes destacan que Microsoft entró formalmente a la disputa entre el gobierno de Trump y Anthropics.

Y es que se busca bloquear la designación como «riesgo para la cadena de suministro» hacia Anthropics, que se niega a permitir que su tecnología se usada para vigilancia masiva o armas autónomas letales sin salvaguarda humana

Microsoft presentó un escrito ante un tribunal federal solicitando una orden de restricción temporal para bloquear dicha designación de Anthropic.

Caso

Como se sabe la disputa surgió después de que el Pentágono vetara a Anthropic tras el fracaso de negociaciones sobre el uso militar de su IA, Claude.

Sin embargo, Anthropic se negó a permitir que su tecnología fuera utilizada para vigilancia masiva o armas autónomas letales sin salvaguardas humanas.

Al tiempo que por su parte Microsoft argumenta que el veto abrupto y la etiqueta de «riesgo de seguridad»:

Advierte que estas acciones perjudican la innovación tecnológica que el propio gobierno ha intentado impulsar.

Observaciones

Al tiempo que se indica que la medida obliga a contratistas de defensa (incluyendo a la propia Microsoft) a modificar o reemplazar componentes de IA de forma inmediata.

LEER MÁS:  La Coalición Anticarteles de las Américas, lo que se sabe

Lo que podría desestabilizar operaciones militares actuales, además.

Por otra parte, en redes y medios, se considera una medida «sin precedentes» contra una empresa estadounidense, etiqueta que usualmente se reserva para entidades de países adversarios como China.

Además de Microsoft, la causa de Anthropic ha recibido el apoyo de un grupo de 22 antiguos altos mandos militares que incluyeo exsecretarios de la Fuerza Aérea y la Armada.

Los cuales alega que las acciones del Pentágono son una forma de «represalia» por la postura ética de la empresa.

Más de 30 científicos de IA de competidores como Google y OpenAI también han presentado escritos a favor de Anthropic.

Mientras tanto, competidores como OpenAI y xAI de Elon Musk) han firmado recientemente acuerdos con el Pentágono para proporcionar tecnología bajo las condiciones de acceso total que Anthropic rechazó.

Confronta

El conflicto escaló tras el fracaso en las negociaciones sobre el uso ético de los modelos de IA denominados Claude.

Anthropic exige garantías de que su tecnología no se emplearía en armas autónomas ni en vigilancia masiva, mientras que el DOD demandaba acceso total para cualquier fin legal.

Ante la falta de acuerdo, el gobierno aplicó una etiqueta de riesgo que suele reservarse para adversarios extranjeros.

LEER MÁS:  Con EE.UU entendimiento con respeto a soberanía: Sheinbaum

Lo que pone en peligro contratos estimados en cientos de millones de dólares.

Planteamientos

Microsoft, que planea invertir hasta $5 mil millones en la empresa, intervino legalmente para evitar que este veto obstaculice a los combatientes en momentos críticos y fuerce cambios abruptos en los contratos vigentes.

Anthropic busca frenar lo que califican como una acción “ilegal y sin precedentes”.

Por otra parte, además, Microsoft argumenta que una orden judicial permitiría una resolución negociada que asegure el acceso militar a la innovación sin sacrificar la supervisión humana.

Anthropic, valorada en $380 mil millones y fundada por exejecutivos de OpenAI, se ha posicionado como un socio estratégico para Google y Amazon.

El resultado de este litigio definirá si el Estado puede forzar el uso irrestricto de innovaciones privadas o si prevalecerán los marcos de seguridad ética propuestos por las empresas tecnológicas.

E incluso Yahoo dice que económicamente, el fallo judicial dictará si la soberanía tecnológica de EE. UU. se construye mediante la colaboración o la imposición administrativa.