Un juez federal de EE.UU. bloquea temporalmente la prohibición del Pentágono a Anthropic

Un juez federal en San Francisco ha concedido a Anthropic una suspensión temporal tras la designación del Pentágono de la empresa como un riesgo para la cadena de suministro. La jueza Rita Lin ordenó una medida cautelar contra esa etiqueta y detuvo una directiva para que las agencias federales dejen de usar su chatbot, Claude.
La jueza Lin afirmó que etiquetar a una empresa estadounidense como un adversario potencial por disentir con el gobierno es una noción "orwelliana". Según Menlo Ventures, Anthropic lideraba el mercado empresarial de IA con un 32% de cuota en 2025, por delante de OpenAI.
El fallo señala que las medidas punitivas de la administración Trump y del secretario de Defensa Pete Hegseth parecieron "arbitrarias y caprichosas". El conflicto surgió tras el colapso de las negociaciones de un contrato para usar Claude en redes clasificadas del Pentágono.
Anthropic se oponía a que su tecnología se usara para armas autónomas letales o vigilancia masiva doméstica. El 27 de febrero, Trump ordenó a todas las agencias federales dejar de usar los productos de la empresa.
La resolución del 26 de marzo declaró que castigar a Anthropic por escrutinio público es una "clásica represalia ilegal de la Primera Enmienda". La empresa se declaró agradecida por la rápida acción judicial y confiada en el éxito final del caso.
Relacionados

NVIDIA Enfrenta Demanda Colectiva Tras Permiso Judicial por Reclamos de $1,000 Millones en Ingresos por Minería de Cripto – La Acción Cae un 7%
27 de marzo de 2026
Stand With Crypto, Respaldado por Coinbase, Revela Plan Político para las Elecciones de Mitad de Mandato de 2026
27 de marzo de 2026