Juez federal bloquea temporalmente veto de Trump y Pentágono a Anthropic por su postura ética en IA
Un juez federal en San Francisco ha concedido una medida cautelar a la empresa de inteligencia artificial Anthropic, suspendiendo temporalmente su designación como riesgo para la cadena de suministro de seguridad nacional y la orden ejecutiva que prohibía su uso en el gobierno federal. La jueza Rita Lin calificó las acciones gubernamentales como “arbitrarias” y una posible represalia por la Primera Enmienda.
El fallo judicial y sus efectos inmediatos
La jueza Rita Lin, del Tribunal de Distrito para el Distrito Norte de California, emitió una orden judicial preliminar que bloquea de inmediato dos medidas. Por un lado, suspende la designación del Departamento de Defensa que catalogaba a Anthropic como un riesgo para la cadena de suministro. Por otro, paraliza la orden ejecutiva del presidente Donald Trump del 27 de febrero de 2026, que prohibía a todas las agencias federales utilizar productos de la empresa.
En su argumentación, la magistrada cuestionó severamente la base legal de las acciones.
“Nada en el estatuto rector respalda la noción orwelliana de que una empresa estadounidense pueda ser catalogada como un adversario potencial y saboteador de EE.UU. por expresar su desacuerdo con el gobierno”,
señaló Lin. Describió las medidas de la administración Trump y del Secretario de Defensa, Pete Hegseth, como “amplias medidas punitivas” y las calificó de “arbitrarias, caprichosas, [y] un abuso de discreción”.
Ante la decisión, Anthropic emitió un comunicado expresando que estaba “agradecida a la corte por su rápida atención a este asunto” y “complacida de que consideren que probablemente tendremos éxito en el fondo del caso”.
Origen del conflicto: un contrato militar y principios éticos
El conflicto se remonta a julio de 2025, cuando Anthropic y el Pentágono iniciaron negociaciones para un contrato que convertiría a su chatbot Claude en el primer modelo de IA fronteriza aprobado para operar en redes clasificadas. Las conversaciones colapsaron en febrero de 2026 cuando el Departamento de Defensa buscó renegociar los términos para permitir el uso militar de la tecnología “para todos los fines legales”, sin restricciones.
Frente a esta petición, Anthropic mantuvo una postura ética firme. La empresa se negó a permitir que su tecnología se utilizara para el desarrollo o despliegue de armas autónomas letales o para programas de vigilancia masiva doméstica dirigidos a ciudadanos estadounidenses. Este desacuerdo fundamental se convirtió en el núcleo del conflicto.
La respuesta del gobierno fue rápida. Primero, el Secretario de Defensa designó a Anthropic como un riesgo para la cadena de suministro de seguridad nacional. Al día siguiente, el 27 de febrero, el presidente Trump emitió la orden ejecutiva. En una publicación en Truth Social ese mismo día, Trump afirmó:
“Los chiflados izquierdistas de Anthropic han cometido un ERROR DESASTROSO al intentar PRESIONAR al Departamento de Guerra”.
El corazón legal: ¿represalia por la Primera Enmienda?
Como respuesta, Anthropic presentó una demanda en un tribunal federal el 9 de marzo de 2026, alegando que el Secretario Hegseth había excedido su autoridad legal. El caso llegó a una audiencia el 24 de marzo, donde la jueza Lin interrogó intensamente a los abogados del gobierno, preguntando si Anthropic estaba siendo castigada por haber criticado públicamente la postura del Pentágono.
En la sentencia emitida dos días después, la jueza Lin expuso el razonamiento legal.
“Castigar a Anthropic por someter a escrutinio público la posición contractual del gobierno es una clásica represalia ilegal de la Primera Enmienda”,
escribió. Su argumento sugiere que las acciones del Departamento de Defensa y la Casa Blanca podrían constituir una represalia prohibida por la Constitución, motivada por la postura pública y crítica de la empresa.
Contexto e implicaciones del caso
El fallo tiene lugar en un momento en que Anthropic ocupa una posición de liderazgo en el mercado. Según un informe de la firma Menlo Ventures de 2025, Anthropic lideraba el sector de la IA empresarial con una cuota de mercado del 32%, por delante de competidores como OpenAI, que contaba con un 25%.
Más allá del caso concreto, la disputa establece un precedente legal significativo en la intersección entre la ética en la inteligencia artificial, la contratación gubernamental y los límites de la libertad de expresión corporativa. Plantea cuestiones fundamentales sobre hasta qué punto el gobierno puede penalizar a empresas privadas por mantener restricciones éticas autoimpuestas, especialmente en el ámbito de los contratos de seguridad nacional.

