La empresa estadounidense de inteligencia artificial acusa a la Administración Trump de usar la seguridad nacional como arma política, bloqueando sus contratos con el Pentágono.
El conflicto que sacude la industria de la IA
La compañía Anthropic, creadora del asistente de inteligencia artificial Claude, ha presentado una demanda federal en California contra el Gobierno de Donald Trump, después de que el Pentágono la incluyera como “riesgo para la cadena de suministro”, una designación inédita aplicada a una empresa estadounidense. Esta figura legal bloquea automáticamente todos sus contratos con el Departamento de Defensa y pone en riesgo acuerdos privados por valor de cientos de millones de dólares.
Según la empresa, la medida constituye un castigo gubernamental por negarse a permitir ciertos usos militares de su tecnología, en particular para armas completamente autónomas o la vigilancia masiva de ciudadanos estadounidenses. “La Constitución no permite al Gobierno usar su poder para castigar a una empresa por su discurso”, afirma Dario Amodei, CEO y cofundador de Anthropic.
Veto sin precedentes en la historia de EE. UU.
El conflicto comenzó durante las negociaciones de un contrato de 200 millones de dólares con el Pentágono para suministrar sistemas de IA a operaciones clasificadas. Anthropic intentó imponer garantías sobre el uso de sus modelos, pero el Gobierno respondió que una empresa privada no podía establecer límites a la política de defensa estadounidense.
Poco después, el secretario de Defensa, Pete Hegseth, anunció la designación como “supply chain risk”, figura reservada normalmente para empresas extranjeras vinculadas a gobiernos hostiles. Nunca antes se había aplicado a una empresa estadounidense, lo que abre un debate sobre los límites de poder del Ejecutivo y el uso político de la seguridad nacional.
Consecuencias económicas y estratégicas
La decisión ya está afectando contratos y dificultando operaciones valoradas en cientos de millones, además de dañar la reputación de Anthropic. La empresa argumenta que la legislación usada por el Pentágono tiene como objetivo proteger la cadena de suministro del Gobierno, no sancionar proveedores por sus políticas éticas o de seguridad. Por ello, pide al tribunal que anule la orden presidencial por considerarla “arbitraria” y contraria al derecho constitucional.
Mientras tanto, la tecnología de Anthropic sigue siendo usada por el Departamento de Defensa para procesar información de inteligencia y grandes volúmenes de datos, demostrando que el enfrentamiento es más político que técnico.
La competencia por la IA militar
Este conflicto ocurre en un momento de intensa competencia tecnológica por contratos militares. Empresas como OpenAI y xAI de Elon Musk ya han firmado acuerdos con el Pentágono, aceptando permitir el uso de sus sistemas para cualquier “propósito legal”, mientras Anthropic mantiene su postura ética frente a armas autónomas y vigilancia masiva.
El enfrentamiento entre Anthropic y el Gobierno estadounidense plantea una pregunta crítica: ¿están las empresas tecnológicas estadounidenses obligadas a ceder su ética a cambio de contratos militares?
