El Pentágono ficha a OpenAI por $200M para su revolución en el ejército

OpenAI firma un contrato de $200 millones con el Departamento de Defensa para desarrollar sistemas de inteligencia artificial para seguridad nacional.
OpenAI ha firmado un contrato de 200 millones de dólares con el Departamento de Defensa de EE. UU., con el objetivo de desarrollar capacidades avanzadas de inteligencia artificial para uso militar y estratégico. El proyecto se ejecutará en Washington D.C. y se extenderá hasta julio de 2026. La colaboración forma parte del programa “OpenAI for Government”, que busca adaptar sus modelos a necesidades estatales. Este giro hacia la defensa marca una nueva era para la compañía, con profundas implicaciones éticas y políticas.
OpenAI se alista en defensa
El contrato por 200 millones de dólares entre OpenAI y el Departamento de Defensa estadounidense representa uno de los acuerdos más relevantes entre Silicon Valley y las fuerzas armadas. El objetivo declarado: desarrollar “capacidades de IA de frontera” para misiones críticas de seguridad nacional. Según The Register, se espera que el trabajo se lleve a cabo en la Región de la Capital Nacional y esté concluido a mediados de 2026.
El contrato es especialmente significativo por el cambio de política que lo posibilitó. Hasta 2023, OpenAI prohibía explícitamente el uso militar de sus modelos. Sin embargo, en enero de 2024, la empresa modificó sus directrices para permitir aplicaciones “limitadas” relacionadas con defensa, siempre que cumplieran estándares éticos internos. Esta apertura ha dado paso a una expansión rápida hacia el ámbito gubernamental y militar.
El Pentágono ha sido claro en su enfoque: quiere prototipos funcionales de IA aplicables tanto al campo de batalla como a tareas administrativas. Aunque OpenAI insiste en que sus modelos se usarán para mejorar la atención médica a militares o tareas logísticas, documentos del Departamento de Defensa incluyen explícitamente el término “guerra” en sus descripciones.
Además, OpenAI no trabaja sola. Ya colabora con empresas como Anduril, especializada en tecnología de defensa, para aplicar sistemas autónomos de IA en vigilancia, análisis de terreno y coordinación táctica. La empresa también ha reforzado su legitimidad en el sector fichando a figuras clave como Paul Nakasone, exjefe de la NSA, y Sasha Baker, exfuncionaria del Pentágono.
Silicon Valley arma sus algoritmos
La alianza entre defensa y tecnología no es nueva, pero ha cambiado radicalmente de tono. En la última década, el Pentágono ha destinado más de 700 millones de dólares solo a proyectos de IA, creando un ecosistema donde empresas como Palantir, Scale AI y ahora OpenAI compiten por contratos millonarios. La tendencia es clara: la superioridad tecnológica pasa por la integración de inteligencia artificial en todos los niveles operativos del Ejército.
El caso más emblemático es el Proyecto Thunderforge de Scale AI, que introduce agentes autónomos en la planificación militar. Al mismo tiempo, Palantir lidera consorcios para mejorar la infraestructura de IA del Departamento de Defensa, enfocándose en interoperabilidad y seguridad. Esta nueva fase se aleja del idealismo ético de hace una década y se acerca más al realismo estratégico: la IA es ya un arma de poder blando y duro.
Gigantes como Google, que años atrás rechazaron trabajar con defensa bajo presión de sus empleados, han revertido esa postura. La demanda gubernamental y la promesa de datasets militares exclusivos han abierto una puerta imposible de ignorar. OpenAI, en este nuevo panorama, no solo se suma, sino que se posiciona como protagonista de la reconversión militar algorítmica.
Ética bajo fuego cruzado
Pero esta evolución no está exenta de tensiones. El uso de IA en conflictos armados plantea dilemas morales profundos, especialmente cuando los sistemas actúan con mínima supervisión humana. Organizaciones como el Comité Internacional de la Cruz Roja han advertido que la toma de decisiones automatizada en contextos de guerra puede desdibujar la responsabilidad y amplificar los errores.
OpenAI, que en su fundación proclamó una visión “para el beneficio de toda la humanidad”, enfrenta ahora críticas por contribuir a una carrera armamentista algorítmica. Sus propios ajustes normativos—como eliminar referencias a “no uso en guerra”—han sido vistos como concesiones pragmáticas al poder estatal.
A nivel normativo, la situación es preocupante. La Ley de IA de la UE excluye explícitamente la IA militar de su marco regulatorio, dejando un vacío legal internacional. Mientras tanto, EE. UU. avanza sin regulaciones claras sobre autonomía letal, en un terreno en el que la tecnología se mueve más rápido que el derecho.
El algoritmo bajo uniforme
La entrada de OpenAI al complejo militar-industrial marca un punto de no retorno para la industria de la inteligencia artificial. Lo que empezó como una misión para “beneficiar a la humanidad” ahora se entrelaza con los intereses estratégicos más duros de un Estado. La IA ya no es solo herramienta de productividad o creatividad: es también infraestructura de poder.
La gran pregunta no es si OpenAI desarrollará sistemas útiles para defensa, sino si su arquitectura fundacional puede sobrevivir sin erosionar sus principios. ¿Es posible construir modelos abiertos en un entorno donde la opacidad y la seguridad nacional priman? ¿Cómo equilibrar la innovación con la gobernanza en un dominio donde las consecuencias de un error no son bugs, sino vidas humanas?
Mientras OpenAI diseña algoritmos para el Pentágono, la comunidad global aún no ha acordado cómo debe usarse la IA en conflictos. La ausencia de regulaciones claras y la opacidad de estos contratos generan un escenario donde el futuro tecnológico se decide lejos del escrutinio público. Y en ese futuro, el software no solo escribe código. Escribe doctrina.
Comentarios cerrados