Jueces Federales Niegan Medida Cautelar a Anthropic en Prohibición Militar de Claude IA y Fijan Audiencia Oral para Mayo

Un tribunal federal de apelaciones rechazó la solicitud de Anthropic para suspender inmediatamente la inclusión de sus modelos de IA Claude en la lista negra del Pentágono. La designación de riesgo para la cadena de suministro prohíbe a contratistas como Amazon, Microsoft y Palantir usar Claude en trabajos para el Departamento de Defensa.
El panel judicial permitió que la lista negra se mantenga durante el litigio y programó audiencias orales aceleradas para el 19 de mayo de 2026. Los jueces reconocieron que Anthropic sufriría daños, pero consideraron que el equilibrio favorecía al gobierno en la gestión de tecnología de IA durante un conflicto militar.
La disputa surgió porque Anthropic se negó a eliminar las restricciones de sus términos de servicio, que prohíben sistemas de armas totalmente autónomos y vigilancia masiva de ciudadanos estadounidenses. El Pentágono calificó estas salvaguardias como "obstáculos irracionales" para la competitividad militar.
Tras el colapso de las negociaciones, el presidente Trump ordenó a las agencias federales dejar de usar la tecnología de Anthropic. La designación de riesgo de cadena de suministro, típicamente aplicada a entidades extranjeras, siguió después.
Anthropic presentó demandas paralelas, logrando una medida cautelar en un tribunal de California que suspendió temporalmente la designación. Sin embargo, la decisión del tribunal de apelaciones de Washington D. C. del 8 de abril contradice ese fallo, creando tensión legal sobre la aplicabilidad actual de la prohibición.
Relacionados

Legisladores de EE.UU. preguntan si Trump está usando como cebo su asistencia a un evento de memecoin: Informe
9 de abril de 2026
Irán ataca un oleoducto saudí e Israel lanza ataques aéreos sobre Líbano horas después del acuerdo de alto el fuego
9 de abril de 2026