La compañía estadounidense Anthropic quedó en el centro de una disputa con el Departamento de Defensa de Estados Unidos luego de que el Pentágono exigiera que elimine las limitaciones que impiden utilizar su inteligencia artificial en determinadas operaciones militares.
Según informó la agencia
Associated Press, la empresa fundada por ex-integrantes de OpenAI y desarrolladora del modelo Claude
mantiene políticas internas que prohíben o restringen el uso de su tecnología para la planificación de ataques, el desarrollo de armamento o la toma autónoma de decisiones letales. Estas “líneas rojas” forman parte de su marco de seguridad y gobernanza, orientado a evitar daños masivos o usos contrarios al derecho internacional humanitario.
El conflicto se intensificó bajo la administración de Donald Trump, que impulsa una política de mayor flexibilidad para incorporar herramientas de inteligencia artificial en el ámbito de la defensa.
Desde el Pentágono sostienen que las restricciones autoimpuestas por las empresas tecnológicas podrían limitar la capacidad operativa de Estados Unidos frente a competidores estratégicos como China, que avanzan rápidamente en la militarización de la IA.
De acuerdo con distintos medios especializados, el Departamento de Defensa planteó que, si las compañías desean mantener o ampliar contratos con el gobierno, deberán adaptar sus condiciones de uso a las necesidades de seguridad nacional.
La presión no se dirige únicamente a Anthropic, pero su caso se volvió emblemático por la claridad con la que la empresa explicitó sus límites éticos.
Anthropic defiende que sus políticas buscan prevenir escenarios en los que sistemas automatizados puedan escalar conflictos o cometer violaciones a los derechos humanos sin supervisión adecuada. La compañía sostiene que la colaboración con gobiernos es posible, pero dentro de parámetros que excluyan el desarrollo de armas autónomas o la asistencia directa en operaciones ofensivas.
El debate no es nuevo, pero adquiere una dimensión mayor en un contexto de acelerada competencia geopolítica. La inteligencia artificial ya se utiliza en logística, análisis de inteligencia, ciberdefensa y simulaciones estratégicas. El punto de fricción radica en si los modelos pueden —o deben— participar en la selección de objetivos, el diseño de estrategias de combate o la automatización de sistemas armamentísticos.
Mientras tanto, el caso expone una tensión estructural: las grandes empresas tecnológicas buscan posicionarse como actores centrales en la carrera por la IA, pero enfrentan dilemas reputacionales y legales cuando sus desarrollos se integran en escenarios bélicos. El gobierno estadounidense, por su parte, prioriza mantener la supremacía tecnológica en un entorno internacional cada vez más competitivo.
La disputa entre Anthropic y el Pentágono no sólo refleja una diferencia contractual, sino un debate de fondo sobre quién fija las reglas en la nueva frontera tecnológica: si las compañías privadas con códigos éticos propios o el Estado cuando invoca razones de seguridad nacional.