Tribunal de EE.UU. rechaza apelación de Anthropic y mantiene designación como “riesgo de seguridad nacional”
La Corte de Apelaciones del Distrito de Columbia ha denegado la solicitud de emergencia de la empresa de inteligencia artificial Anthropic para suspender su designación como riesgo para la cadena de suministro de seguridad nacional. El fallo, emitido este miércoles, prioriza el interés del gobierno de Estados Unidos en un contexto de conflicto militar y permite que la polémica etiqueta impuesta por el Departamento de Defensa siga vigente.
Esta decisión bloquea el acceso a los modelos de IA de Anthropic para los contratistas del Pentágono y marca un precedente significativo, al ser la primera vez que dicha designación se aplica a una compañía estadounidense.
El Fallo y su Fundamentación Clave
Un panel de tres jueces de la Corte de Apelaciones de D.C. rechazó la moción de suspensión de emergencia presentada por Anthropic (Caso Nº 26-01049). El razonamiento central del tribunal estableció que el equilibrio entre el posible daño a la empresa privada y la necesidad del gobierno de asegurar tecnología de IA vital durante un “conflicto militar activo” se inclina a favor del Estado.
En nuestra opinión, el equilibrio equitativo aquí favorece al gobierno… De un lado está un riesgo relativamente contenido de daño financiero para una sola empresa privada. Del otro lado está la gestión judicial de cómo, y a través de quién, el Departamento de Guerra asegura tecnología de IA vital durante un conflicto militar activo.
El tribunal, en una orden judicial disponible a través de Courtlistener, reconoció que Anthropic sufriría “algún grado de daño irreparable”, pero consideró que este no era suficiente para otorgar la medida cautelar solicitada.
Consecuencias Inmediatas y un Precedente Peligroso
El efecto inmediato del fallo es que la designación de “riesgo para la cadena de suministro de seguridad nacional” contra Anthropic permanece parcialmente en vigor. Operativamente, esto prohíbe a los contratistas del Departamento de Defensa utilizar los modelos de IA de la empresa, como su sistema Claude.
El carácter histórico de esta designación, al ser la primera aplicada a una empresa nacional, sienta un precedente que analistas legales consideran podría tener un “efecto escalofriante”. Este precedente señala el riesgo para otras empresas tecnológicas que consideren resistirse a las demandas del gobierno en materia de seguridad nacional, especialmente en un contexto de tensión geopolítica.
Origen del Conflicto: Del Contrato a la Confrontación
La disputa se origina en un acuerdo de julio de 2025, mediante el cual Claude de Anthropic se convertiría en el primer modelo de lenguaje grande (LLM) aprobado para su uso en redes clasificadas del Pentágono. El punto de ruptura llegó en febrero de 2026, cuando el gobierno buscó renegociar el contrato para exigir el uso militar de la tecnología sin restricciones.
Anthropic se opuso por principios éticos, específicamente en lo referente al desarrollo de armas autónomas letales y a la vigilancia masiva de ciudadanos estadounidenses.
La confrontación escaló políticamente cuando el entonces Presidente Donald Trump emitió una orden ejecutiva en febrero de 2026 prohibiendo el uso de productos de Anthropic en agencias federales. En esa ocasión, Trump acusó a la empresa de cometer un “error desastroso al intentar presionar al Departamento de Guerra”. Como respuesta legal, Anthropic presentó una demanda en marzo de 2026, alegando que era víctima de una “campaña de represalia ilegal” por parte del gobierno.
Un Litigio en Dos Frentes Judiciales
La complejidad legal del caso radica en que Anthropic debe impugnar la designación a través de dos vías separadas, según lo estipulado por la ley federal de adquisiciones.
Impugnación Constitucional en California
Por un lado, en una corte de distrito de California, la empresa presentó una impugnación constitucional. En marzo de 2026, ese tribunal emitió una medida cautelar preliminar a favor de Anthropic, calificando la orden ejecutiva de “orwelliana”.
Impugnación Bajo Estatuto Específico en D.C.
Por otro lado, en Washington D.C., Anthropic inició una impugnación bajo el estatuto específico que autoriza la designación de riesgos para la cadena de suministro. Es en esta vía donde la Corte de Apelaciones de D.C. ha denegado ahora la suspensión de emergencia. Es crucial señalar que este fallo no representa una sentencia final sobre el fondo del caso, pero constituye un revés significativo para la estrategia legal de la empresa en esta jurisdicción.
Reacciones y Próximos Pasos
La reacción del gobierno fue inmediata. Todd Blanche, el Fiscal General interino de EE. UU., calificó el fallo como una “victoria contundente para la preparación militar”. En una declaración, Blanche afirmó:
La autoridad militar y el control operativo pertenecen al Comandante en Jefe y al Departamento de Guerra, no a una empresa tecnológica.
La posición de Anthropic, basada en los argumentos de su demanda, reitera su compromiso con un marco ético que se opone al uso no restringido de su inteligencia artificial para fines militares específicos.
Desde una perspectiva procesal, el litigio continúa en ambas cortes. El fallo de la Corte de Apelaciones de D.C. se refiere únicamente a una moción de emergencia, por lo que el caso de fondo aún debe ser debatido y resuelto.
Este enfrentamiento marca un capítulo crítico en la relación entre el gobierno federal, la industria de la inteligencia artificial y los límites éticos en los contratos de defensa, cuyas implicaciones a largo plazo podrían redefinir la colaboración público-privada en el sector tecnológico y de seguridad nacional.
