28.04.2026 / INTELIGENCIA ARTIFICIAL Y DEFENSA

Google firma un acuerdo secreto con el Pentágono para IA

Google se sumó a OpenAI y a xAI en el suministro de inteligencia artificial para operaciones clasificadas del Pentágono. El acuerdo permite al Departamento de Defensa usar modelos de IA de Google para «cualquier propósito legal del gobierno», incluyendo planificación de misiones y selección de objetivos.



El gigante tecnológico Google se sumó formalmente a una creciente lista de empresas de inteligencia artificial que proveen modelos para trabajo clasificado en redes militares estadounidenses. El acuerdo, revelado por The Information, coloca a Google junto a OpenAI y xAI de Elon Musk como proveedores autorizados de IA para operaciones del Pentágono que requieren máxima confidencialidad.

El contrato permite que el Departamento de Defensa (que Trump renombró como Departamento de Guerra en 2026) acceda a la IA de Google para "cualquier propósito legal del gobierno". Las redes clasificadas del Pentágono se utilizan para gestionar operaciones sensibles, desde planificación de misiones hasta generación de objetivos de armas. 

Restricciones y guardrails en contexto clasificado

El acuerdo incluye disposiciones de seguridad significativas. Google se compromete a ajustar sus filtros de seguridad de IA según solicitudes del gobierno, pero con límites explícitos. El contrato establece que la IA "no está destinada y no debe usarse para vigilancia masiva doméstica ni armas autónomas (incluyendo selección de objetivos) sin supervisión y control humano apropiado".

Sin embargo, la cláusula también especifica que el acuerdo no otorga a Google derecho a controlar o vetar decisiones operacionales legales del gobierno. Esto revela una tensión fundamental: Google aceptó flexibilizar sus restricciones internas, pero negoció cláusulas que limitan las aplicaciones más controvertidas.

Un portavoz de Google confirmó a Reuters que la compañía «sigue comprometida con el consenso de que la IA no debe usarse para vigilancia masiva doméstica o armamento autónomo sin supervisión humana apropiada». La empresa agregó que proveer acceso API a modelos comerciales «representa un enfoque responsable para apoyar la seguridad nacional».

El precedente de Anthropic y la presión del Pentágono

Este movimiento de Google contrasta con la posición de Anthropic, la startup creadora de Claude que rechazó flexibilizar sus guardrails de seguridad según las exigencias del Pentágono. El Departamento de Defensa presionó a múltiples firmas de IA durante 2025 para remover restricciones contra armas autónomas y vigilancia doméstica. Anthropic se negó.

Como consecuencia, el Pentágono designó a Anthropic como "riesgo de cadena de suministro", efectivamente marginándola de los contratos clasificados. Reuters reportó que el Pentágono había firmado acuerdos por hasta 200 millones de dólares con laboratorios de IA en 2025, incluidos Anthropic, OpenAI y Google. Anthropic quedó con fondos pero sin acceso operacional a proyectos clasificados.

Riesgos y debates en el sector de IA

El acuerdo plantea interrogantes sobre cómo evolucionará la gobernanza de IA en contextos militares. El Pentágono ha reiterado públicamente que no tiene interés en usar IA para vigilancia masiva de estadounidenses ni en desarrollar armas sin participación humana. Pero el lenguaje permisivo - "cualquier propósito legal" - deja margen interpretativo amplio.

Los expertos en tecnología señalan que una vez que un modelo de IA está en manos del gobierno, controlar su uso efectivo es complejo. El contrato entre Google y el Pentágono establece límites por escrito, pero su cumplimiento depende de auditorías y mecanismos de control que no son públicos.

Impacto en la carrera comercial de IA

Para Google, el acuerdo clasificado representa un flujo de ingresos significativo en un mercado competitivo. OpenAI ya aseguró su posición con el Pentágono. xAI de Musk ganó tracción rápidamente. La negativa de Anthropic de aceptar las condiciones del Pentágono la dejó sin esos contratos, un costo estratégico alto en un sector donde el acceso a gobiernos y agencias es decisivo para la expansión.

El Pentágono, por su parte, logró diversificar proveedores. Contar con modelos de Google, OpenAI y xAI reduce el riesgo de dependencia de un único proveedor para operaciones de defensa críticas.

¿Qué son las redes clasificadas del Pentágono?

Son sistemas informáticos separados de internet pública, diseñados para manejar información de seguridad nacional. Se utilizan para planificación de operaciones, análisis de inteligencia y coordinación de misiones militares. Acceder a estas redes requiere autorizaciones especiales.

¿Por qué Anthropic se negó a aceptar el acuerdo?

Anthropic rechazó remover sus guardrails contra armas autónomas sin supervisión humana y vigilancia masiva. La compañía priorizó sus principios de seguridad sobre el acceso a contratos militares. El Pentágono respondió designándola como riesgo de cadena de suministro.

¿Qué restricciones tiene Google en el acuerdo?

Google acordó que su IA no se usará para vigilancia doméstica masiva ni armas autónomas sin control humano. Sin embargo, cede flexibilidad en ajustes de filtros de seguridad según solicitudes del gobierno, algo que Anthropic rechazó.