03.03.2026 / Inteligencia artificial y geopolítica

Trump prohibió usar la IA de Anthropic por "woke": horas después, el Pentágono la usó para bombardear Irán

La Casa Blanca vetó el uso de Claude en operaciones militares tras una disputa con la empresa creadora de la herramienta. Pero el ataque del 28 de febrero contra Irán se ejecutó, según el Wall Street Journal, con esa misma tecnología.



El 28 de febrero, mientras Israel y Estados Unidos lanzaban ataques aéreos contra Irán, se desarrollaba en paralelo otro conflicto, menos visible pero igual de revelador: la pelea de la administración Trump con Anthropic, la empresa detrás del modelo de inteligencia artificial Claude.

Todo empezó cuando el Pentágono intentó integrar Claude en sus sistemas de defensa, en combinación con el software de la empresa Palantir. Anthropic aceptó el contrato, valuado en 200 millones de dólares, pero con condiciones: su IA no podía ser usada para la vigilancia masiva de ciudadanos estadounidenses ni para el desarrollo o control de sistemas de armas autónomos.

Esas restricciones terminaron siendo un problema. El secretario de Defensa, Pete Hegseth, le dio a Anthropic un ultimátum la semana pasada: tenía hasta el viernes a las 17 horas para eliminar esas "líneas rojas", o sufriría consecuencias. Entre las amenazas, la posibilidad de invocar la Ley de Producción de Defensa de 1950 para apropiarse de la tecnología por la fuerza.

El CEO de Anthropic, Dario Amodei, respondió con un comunicado firme: la empresa apoya los intereses de defensa del país, pero no a cualquier precio. La respuesta irritó a Trump, quien en su red Truth Social calificó a Anthropic de "empresa de IA de izquierda radical" y ordenó que todas las agencias federales cesaran de inmediato el uso de sus herramientas.

Lo que Trump no contempló fue que Claude llevaba meses profundamente integrado en los sistemas militares. Según el Wall Street Journal, el modelo ya había sido utilizado para operaciones de análisis de inteligencia en Venezuela y era parte de la infraestructura cotidiana del Comando Central en Medio Oriente.

Cuando llegó la noche del bombardeo a Irán, los comandantes sobre el terreno recurrieron a las herramientas que tenían disponibles. Y esas herramientas eran, en buena medida, las de Anthropic. El Pentágono, en la práctica, ignoró la orden presidencial porque prescindir de Claude de un día para el otro era operativamente imposible. Se estima que llevará al menos seis meses eliminar completamente su rastro de los sistemas militares.

Con Anthropic en la mira, OpenAI, la empresa detrás de ChatGPT, no tardó en moverse. Emitió un comunicado señalando que Estados Unidos necesita modelos de IA para su misión de defensa, especialmente frente a adversarios que también están incorporando inteligencia artificial a sus arsenales.

La diferencia de postura es notable: mientras Anthropic se plantó ante el Pentágono, OpenAI adoptó un enfoque más flexible, atando el uso de su tecnología al marco legal vigente, lo que, en la práctica, deja un margen mucho más amplio de interpretación para el Departamento de Defensa.

Más allá de la disputa corporativa y política, el episodio deja una conclusión difícil de ignorar: la inteligencia artificial ya no es una promesa del futuro en el campo de batalla. Es parte del presente. Y la pregunta sobre quién controla esas herramientas, y bajo qué condiciones, tiene implicancias que van mucho más allá de Silicon Valley.