IA y Uso Militar: El Nuevo Campo de Batalla entre Silicon Valley y el Pentágono
IA y Uso Militar: El Nuevo Campo de Batalla entre Silicon Valley y el Pentágono
La inteligencia artificial comercial se ha integrado formalmente en las operaciones militares de Estados Unidos, generando una crisis sin precedentes entre el Pentágono y las empresas que la desarrollan. El 14 de julio de 2025, el Chief Digital and Artificial Intelligence Office (CDAO) del Departamento de Defensa adjudicó contratos con techo de $200 millones a cada una de las cuatro principales empresas de IA —Anthropic, OpenAI, Google y xAI—, totalizando un programa de $800M para desarrollar capacidades de IA frontera para seguridad nacional. La primera prueba de fuego real llegó el 3 de enero de 2026 con la Operación Absolute Resolve en Venezuela, tras la cual informes del Wall Street Journal revelaron que Claude de Anthropic fue utilizado durante la operación activa a través de Palantir. A mediados de febrero de 2026, el Pentágono amenaza con designar a Anthropic como “riesgo para la cadena de suministro” por negarse a permitir el uso irrestricto de su IA en combate, mientras OpenAI, Google y xAI ya han aceptado las condiciones del Departamento de Defensa. Este informe documenta exhaustivamente cada aspecto de esta situación, distinguiendo rigurosamente entre hechos verificados, informes periodísticos y especulación.
1. Anthropic y el Pentágono: un contrato de $200M en riesgo
El contrato CDAO
Hecho verificado (fuente primaria: comunicado de prensa de Anthropic, 14 de julio de 2025; anuncio oficial del CDAO): Anthropic firmó un Other Transaction Agreement (OTA) de prototipado con un techo de $200 millones durante dos años, adjudicado por el CDAO. El contrato cubre el desarrollo de prototipos de IA frontera para seguridad nacional, incluyendo los modelos Claude Gov (versiones personalizadas para clientes de seguridad nacional) y Claude for Enterprise, todo operando sobre infraestructura de Amazon Web Services. Doug Matty, director del CDAO, declaró que los contratos “permitirán al Departamento aprovechar la tecnología y el talento de las empresas estadounidenses de IA frontera para desarrollar flujos de trabajo de IA agéntica en diversas áreas de misión.”
Para entender el contexto del lanzamiento de Claude Opus 4.6 — el modelo que provocó la “SaaSpocalypse” bursátil — es relevante que esta es la misma tecnología que ahora opera en redes clasificadas del Pentágono.
La política de uso de Anthropic
Hecho verificado (fuente primaria: anthropic.com/legal/aup, versión vigente desde el 15 de septiembre de 2025): La Usage Policy de Anthropic prohíbe explícitamente: producir, modificar o diseñar armas y explosivos; diseñar procesos de armamentización; y sintetizar armas biológicas, químicas, radiológicas o nucleares. También prohíbe “battlefield management applications” (aplicaciones de gestión de campo de batalla) y vigilancia sin consentimiento. Sin embargo, la política contiene una cláusula de excepción gubernamental crucial que permite a Anthropic “celebrar contratos con ciertos clientes gubernamentales que adapten las restricciones de uso a la misión pública y las autoridades legales de ese cliente, si, a juicio de Anthropic, las restricciones contractuales y las salvaguardas aplicables son adecuadas para mitigar los daños potenciales.”
Las dos líneas rojas de Anthropic
Fuente: Axios, 15-16 de febrero de 2026, con confirmación de portavoz de Anthropic. Anthropic mantiene dos límites que se niega a negociar: prohibición de vigilancia masiva de ciudadanos estadounidenses y prohibición de armas completamente autónomas sin intervención humana. El Pentágono considera que estas categorías tienen demasiadas “zonas grises” para ser operativas y exige que todas las empresas de IA permitan el uso de sus herramientas para “todos los propósitos legales”, incluyendo desarrollo de armamento, recopilación de inteligencia y operaciones en el campo de batalla.
La amenaza de “riesgo para la cadena de suministro”
Fuente: Axios, 16 de febrero de 2026; portavoz del Pentágono Sean Parnell (declaración atribuida directamente). El secretario de Defensa Pete Hegseth estaría “cerca” de cortar relaciones comerciales con Anthropic y designarla como “supply chain risk”, una penalización normalmente reservada para adversarios extranjeros. Esta designación obligaría a cualquier empresa que quiera contratar con el Departamento de Defensa a certificar que no utiliza modelos de Anthropic. Parnell declaró: “La relación del Departamento de Guerra con Anthropic está siendo revisada. Nuestra nación requiere que nuestros socios estén dispuestos a ayudar a nuestros combatientes a ganar en cualquier pelea.” Un alto funcionario del Pentágono añadió: “Será enormemente complicado desenredarlo, y nos vamos a asegurar de que paguen un precio por obligarnos a actuar así.”
Nota sobre fiabilidad: Las amenazas más incendiarias provienen de fuentes anónimas del Pentágono a través de Axios, un medio de alta reputación. Estas declaraciones podrían representar posiciones negociadoras más que decisiones finalizadas. Anthropic respondió que mantiene “conversaciones productivas, de buena fe” con el Departamento de Defensa.
La alianza Anthropic-Palantir
Hecho verificado (fuentes primarias: comunicados de BusinessWire de Palantir/Anthropic):
La alianza se desarrolló en dos fases. La primera fase se anunció el 7 de noviembre de 2024: Anthropic y Palantir, junto con AWS, proporcionan acceso a los modelos Claude 3 y 3.5 a agencias de inteligencia y defensa de EE.UU. Claude se operacionaliza dentro de la Palantir AI Platform (AIP), alojada en el entorno acreditado a Impact Level 6 (IL6) de Palantir en AWS —uno de los estándares de seguridad más estrictos del DoD, correspondiente al nivel SECRET. Palantir se describió como “el primer socio industrial en llevar modelos Claude a entornos clasificados.”
La segunda fase se anunció el 17 de abril de 2025: Anthropic se unió al programa FedStart de Palantir, haciendo Claude disponible a agencias civiles federales con estándares de seguridad FedRAMP High y DoD IL5, alojado en Google Cloud. El objetivo declarado era alcanzar “millones” de trabajadores federales.
Implicación crítica: A través de esta alianza, Claude se convirtió en el primer y, hasta la fecha, único modelo de IA frontera disponible en los sistemas clasificados del DoD. Esto convierte a Anthropic en indispensable a corto plazo, pero también la pone en el epicentro de la controversia.
2. Operación Absolute Resolve: qué se sabe y qué es especulación
Los hechos confirmados
Fuentes primarias: declaraciones oficiales de la Casa Blanca, Departamento de Defensa (war.gov), briefing del general Dan Caine. El 3 de enero de 2026, fuerzas especiales estadounidenses ejecutaron la Operación Absolute Resolve, capturando al presidente venezolano Nicolás Maduro y su esposa Cilia Flores en el complejo de Fort Tiuna en Caracas. La operación involucró más de 150 aeronaves desde 20 bases, incluyendo F-22, F-35, bombarderos B-1, aeronaves de guerra electrónica y drones furtivos RQ-170. Las fuerzas terrestres estuvieron en el complejo aproximadamente 30 minutos. Maduro y Flores fueron trasladados al USS Iwo Jima y luego a Nueva York, donde fueron procesados el 5 de enero ante el juez Alvin Hellerstein por cargos de narcoterrorismo. Ambos se declararon no culpables.
Las víctimas según diferentes fuentes
Las cifras varían significativamente. El Pentágono confirmó 7 militares estadounidenses heridos y cero fallecidos; 5 volvieron al servicio y 2 seguían en recuperación. En cuanto a bajas venezolanas y cubanas, la mejor estimación consolidada oscila entre 75 y 83 muertos, compuesta por 47 militares venezolanos (cifra final del ministro de Defensa Padrino López, 16 de enero), 32 militares/inteligencia cubanos (confirmado por Cuba), y al menos 2 civiles documentados independientemente. Diosdado Cabello afirmó más de 100 muertos totales, cifra no verificada independientemente. Airwars, el monitor independiente británico, identificó al menos dos incidentes con víctimas civiles, incluyendo un ataque aéreo en Catia La Mar que impactó un edificio residencial de tres pisos.
Lo que reporta el WSJ sobre el uso de Claude
Fuente: Wall Street Journal, circa 13-15 de febrero de 2026; confirmado por Axios. Según fuentes anónimas “familiarizadas con el asunto,” Claude fue utilizado durante la operación activa, no solo en la preparación, desplegado a través de la alianza de Anthropic con Palantir. El WSJ también reportó que un empleado de Anthropic contactó a un homólogo en Palantir para preguntar cómo se había usado Claude durante la operación. Axios confirmó independientemente el uso de Claude durante la operación activa, pero señaló que “no pudo confirmar el papel preciso que jugó Claude.”
Lo que NO se sabe: El rol exacto de Claude en la operación no ha sido detallado por ninguna fuente primaria. Algunos medios secundarios especularon sobre “targeting asistido por IA” y “guía de drones autónomos”, pero estas aplicaciones específicas no están confirmadas por el reporte original del WSJ. No se ha establecido si Claude fue utilizado para targeting, análisis de inteligencia, procesamiento de documentos u otras funciones.
Las respuestas oficiales
Anthropic declaró: “No podemos comentar si Claude, o cualquier otro modelo de IA, fue utilizado para ninguna operación específica, clasificada o no. Cualquier uso de Claude está obligado a cumplir con nuestras Políticas de Uso.” La empresa negó específicamente haber discutido el uso de Claude en operaciones específicas con el Departamento de Defensa o con socios incluyendo Palantir. Una fuente citada por Fox News indicó que Anthropic “tiene visibilidad sobre el uso clasificado y no clasificado y tiene confianza en que todo el uso ha estado en línea con su política de uso.” Palantir declinó comentar. El Pentágono no confirmó oficialmente el uso de Claude pero un alto funcionario describió la consulta de Anthropic a Palantir como preocupante.
3. OpenAI: de prohibir el uso militar a desplegarse en redes del Pentágono
El cambio de política
Hecho verificado (fuente primaria: página de políticas de uso de OpenAI, actualizada el 10 de enero de 2024; reportado originalmente por The Intercept). La política original de OpenAI prohibía explícitamente actividades con “alto riesgo de daño físico, incluyendo: desarrollo de armas y militar y guerra.” El 10 de enero de 2024, sin anuncio público, OpenAI eliminó la prohibición categórica de “military and warfare.” El cambio no fue anunciado; OpenAI lo describió como una reescritura para hacer el documento “más claro y legible.” El portavoz Niko Felix explicó que “un principio como ‘No dañes a otros’ es amplio pero fácil de entender.” Anna Makanju, VP de Asuntos Globales de OpenAI, reconoció en Davos que “la prohibición general sobre uso militar hacía que muchos pensaran que se prohibían muchos casos de uso que la gente considera alineados con lo que queremos ver en el mundo.”
La política vigente (actualizada el 29 de enero de 2025) mantiene la prohibición de “desarrollar o usar armas”, “herir a otros o destruir propiedad” y vigilancia no autorizada, pero ya no contiene ninguna prohibición categórica sobre uso militar.
Los contratos con el DoD
Hecho verificado (fuente primaria: comunicado del CDAO, junio de 2025; blog oficial de OpenAI). OpenAI Public Sector LLC recibió un contrato de hasta $200 millones del CDAO, con una obligación inicial de menos de $2 millones. OpenAI describió el alcance como operaciones administrativas, acceso a salud para militares y defensa cibernética proactiva, aunque el anuncio del DoD mencionó “dominios de combate y empresariales.” Además, en diciembre de 2024, OpenAI anunció una alianza estratégica con Anduril centrada en sistemas contra drones (CUAS), donde los modelos de OpenAI serán entrenados con datos de amenazas de Anduril.
ChatGPT en redes clasificadas versus no clasificadas
Hecho verificado (fuentes primarias: blog de OpenAI, comunicado del DoD, blog de Microsoft Azure Government). En redes no clasificadas, OpenAI desplegó una versión personalizada de ChatGPT en GenAI.mil el 10 de febrero de 2026, accesible para los 3 millones de personal civil y militar del DoD. En redes clasificadas, los modelos de OpenAI están disponibles a través de Microsoft Azure, no directamente por OpenAI. Microsoft desplegó GPT-4 en una nube aislada Top Secret en mayo de 2024. En abril de 2025, Azure OpenAI Service fue autorizado en todos los niveles de clasificación del gobierno estadounidense (IL2-IL6 más Top Secret ICD 503). La distinción es crucial: OpenAI directamente opera solo en redes no clasificadas; es Microsoft quien proporciona el acceso clasificado.
4. Google eliminó sus propias líneas rojas sobre armas
De Project Maven a la eliminación de los principios de IA
La trayectoria de Google es la más dramática en cuanto a cambio de posición. En 2017-2018, Google participó en Project Maven, un contrato del DoD para analizar imágenes de drones con machine learning. Más de 3,100 empleados firmaron una carta abierta exigiendo que Google “no estuviera en el negocio de la guerra.” Docenas renunciaron en protesta. En junio de 2018, Google anunció que no renovaría el contrato y publicó sus Principios de IA, que prohibían explícitamente “armas u otras tecnologías cuyo propósito principal sea causar o facilitar directamente lesiones a personas” y “tecnologías que recopilen o utilicen información para vigilancia violando normas internacionales aceptadas.”
El 4 de febrero de 2025, Google eliminó silenciosamente estas prohibiciones. Los nuevos principios, coautorados por Demis Hassabis (CEO de DeepMind) y James Manyika, reemplazaron las prohibiciones específicas con compromisos genéricos de “supervisión humana apropiada” y que los beneficios “superen sustancialmente los riesgos previsibles.” La justificación declarada fue que “hay una competencia global por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo.” Human Rights Watch calificó el giro de Google de negarse a construir IA para armas a apoyar aventuras de seguridad nacional como “stark” (drástico). Margaret Mitchell, excodirectora de ética de IA de Google, advirtió: “Que hayan eliminado eso significa que Google probablemente ahora trabajará en desplegar tecnología directamente que pueda matar personas.”
Situación actual de contratos militares
Google actualmente mantiene múltiples contratos militares significativos: el contrato JWCC de $9 mil millones (compartido con AWS, Microsoft y Oracle) para nube de combate; su propio contrato CDAO de $200M; y Gemini for Government, que fue el primer modelo de IA desplegado en GenAI.mil en diciembre de 2025. Google Cloud también alcanzó la acreditación IL6 (nivel SECRET) en junio de 2025. Además, Google mantiene el controvertido Project Nimbus con Israel, un contrato de $1,200 millones (junto con Amazon) que incluye al Ministerio de Defensa israelí como cliente, por el cual Google despidió a más de 50 empleados que protestaban en abril de 2024.
5. xAI: sin principios éticos publicados y compitiendo en enjambres de drones
Hecho verificado (fuentes primarias: comunicado CDAO, blog oficial de xAI, anuncio del DoD). xAI recibió su contrato de $200 millones del CDAO el 14 de julio de 2025 y fue descrito por NBC News como una “adición tardía” que “apareció de la nada” sin haber estado bajo consideración antes de marzo de 2025. Un exfuncionario de contratación del Pentágono, Greg Parham, declaró que xAI está “lejos, muy lejos, muy muy lejos detrás” de otras empresas en el proceso de autorización gubernamental. El 22 de diciembre de 2025, el DoD anunció la integración de “xAI for Government” en GenAI.mil, con Grok operando a nivel IL5.
Reporte de Bloomberg (16 de febrero de 2026, fuentes anónimas): SpaceX y xAI (ahora subsidiaria de SpaceX tras la fusión anunciada a principios de febrero de 2026) están compitiendo en un desafío secreto del Pentágono de $100 millones para desarrollar tecnología de enjambres de drones autónomos controlados por voz, organizado por la Defense Innovation Unit y el Defense Autonomous Warfare Group de SOCOM. Esto contrasta directamente con la posición de Elon Musk en 2015, cuando cofirmó una carta del Future of Life Institute pidiendo prohibir “armas autónomas ofensivas más allá del control humano significativo.”
xAI no ha publicado principios éticos formales ni política de uso sobre aplicaciones militares. A diferencia de Anthropic, OpenAI y Google, no existe documento público de xAI que defina restricciones sobre uso militar de sus modelos. Su declaración oficial más significativa sobre uso militar proviene de su blog: “Apoyar las misiones críticas del gobierno de Estados Unidos es una parte clave de nuestra misión.”
La senadora Elizabeth Warren envió una carta formal al secretario Hegseth en septiembre de 2025 cuestionando el contrato con xAI, citando el potencial beneficio impropio del acceso de Musk a datos gubernamentales a través de DOGE, preocupaciones sobre competencia, la desinformación de Grok, y un incidente en julio de 2025 en que Grok generó contenido antisemita, autodenominándose “MechaHitler.”
6. Palantir: la infraestructura que conecta Silicon Valley con el campo de batalla
Un conglomerado de contratos de defensa
Palantir, fundada en 2003 con financiación inicial de In-Q-Tel (el brazo de capital riesgo de la CIA), se ha convertido en el intermediario indispensable entre la IA comercial y las operaciones militares. Sus contratos principales incluyen: el acuerdo empresarial del Ejército de hasta $10 mil millones durante 10 años (julio de 2025, fuente: army.mil); el Maven Smart System del CDAO por $1,300 millones hasta 2029 con más de 20,000 usuarios activos en 35+ herramientas militares; y ShipOS para la Armada por hasta $448 millones.
Datos financieros verificados (fuente primaria: SEC filing, comunicado de resultados Q4 2025 de BusinessWire, 1 de febrero de 2026): Palantir reportó ingresos totales de $4,480 millones en el año fiscal 2025, con ingresos del gobierno estadounidense de $570 millones solo en Q4 (+66% interanual). El ingreso neto fue de $608.7 millones en Q4, con $7,200 millones en efectivo y cero deuda. La guía para 2026 proyecta un crecimiento del 61% interanual.
Cómo funciona Palantir como puente
Palantir actúa como intermediario a través de varios mecanismos. Primero, posee acreditaciones de seguridad de élite (IL5, IL6, FedRAMP High, nube Top Secret) que la mayoría de las empresas de IA no tienen. A través de FedStart y alianzas directas, los modelos de IA se despliegan en entornos clasificados usando la infraestructura preacreditada de Palantir. Segundo, su capa de ontología —un marco semántico que mapea cómo se relacionan las fuentes de datos— se sitúa entre los datos gubernamentales crudos y los modelos de IA, controlando qué información acceden los modelos. Tercero, la AIP (Artificial Intelligence Platform), lanzada en abril de 2023, integra múltiples modelos de IA (Claude, GPT-4, Llama) en una arquitectura modelo-agnóstica con AI Guardrails que controlan granularmente qué pueden ver y hacer los modelos, generando un registro digital seguro de todas las operaciones.
Palantir también mantiene alianzas con Microsoft (desde agosto de 2024, siendo “el primer socio industrial en desplegar Azure OpenAI Service en entornos clasificados”), con Meta (Llama para defensa, desde noviembre de 2024), y con Anduril (consorcio desde diciembre de 2024 para preparar datos de defensa para entrenamiento de IA en niveles SCI y SAP).
7. Las dimisiones que revelan las tensiones internas
Mrinank Sharma: la carta que no nombró al Pentágono
Hecho verificado (fuente primaria: publicación en X del 9 de febrero de 2026, 14.6 millones de visualizaciones). Sharma, líder del equipo de Safeguards Research de Anthropic desde agosto de 2023, publicó su carta de dimisión que, aunque ampliamente citada en el contexto de la disputa militar, es notablemente vaga sobre disputas internas específicas. Sus palabras clave: “El mundo está en peligro. Y no solo por la IA, o las bioarmas, sino por toda una serie de crisis interconectadas.” Añadió: “A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto dentro de mí, dentro de la organización, donde constantemente enfrentamos presiones para dejar de lado lo que más importa.” No mencionó directamente el uso militar ni acusó a Anthropic de conducta específica. Anthropic declaró estar “agradecida por el trabajo de Sharma avanzando la investigación en seguridad de IA.”
Las otras salidas de Anthropic requieren matización. Harsh Mehta y Behnam Neyshabur (ambos a principios de febrero de 2026) anunciaron sus salidas elogiando a la empresa y declarando que iban a “empezar algo nuevo.” Dylan Scandinaro se trasladó a OpenAI como Head of Preparedness sin criticar públicamente a Anthropic. Vincular estas salidas a la disputa militar sería especulativo; la evidencia disponible sugiere que son movimientos profesionales estándar, no dimisiones de protesta.
Ryan Beiermeister: un despido disputado en OpenAI
Fuente: Wall Street Journal, 10 de febrero de 2026. Beiermeister, VP de Product Policy en OpenAI, fue despedida en enero de 2026 oficialmente por una alegación de discriminación sexual hecha por un colega masculino, que ella niega categóricamente. Antes de su despido, había expresado críticas al “Adult Mode” planificado para ChatGPT. OpenAI declaró que su salida “no estaba relacionada con ningún asunto que ella planteó.” La conexión entre su oposición al Adult Mode y su despido es sugerente pero no concluyente.
Zoë Hitzig: la dimisión más articulada
Hecho verificado (fuente primaria: publicación en X y ensayo invitado en el New York Times, 11 de febrero de 2026). Hitzig renunció el 10 de febrero de 2026 —el mismo día que OpenAI comenzó a probar anuncios en ChatGPT— publicando: “OpenAI tiene el registro más detallado del pensamiento humano privado jamás reunido. ¿Podemos confiar en que resistirán las fuerzas que los empujan a abusar de él?” En su ensayo del NYT, trazó paralelos explícitos con la evolución de Facebook y propuso alternativas a la publicidad como modelo de ingresos. Su dimisión no estaba directamente relacionada con uso militar sino con la monetización de datos conversacionales. Esto conecta con un problema que ya hemos analizado: la IA como nuevo canal de fuga de datos es una preocupación que va mucho más allá del ámbito militar.
Un patrón estructural documentado en OpenAI
Más allá de las salidas individuales, OpenAI ha disuelto dos equipos de seguridad en dos años: el equipo de Superalignment en mayo de 2024 (tras las dimisiones de Ilya Sutskever y Jan Leike) y el equipo de Mission Alignment en febrero de 2026. Este es el indicador estructural más fuerte de deprioritización de la seguridad. Leike declaró en su dimisión que “la cultura de seguridad y los procesos han quedado relegados frente a los productos brillantes.”
8. El marco legal: un vacío de responsabilidad
La regulación estadounidense existente
Fuente primaria: DoD Directive 3000.09 (original noviembre 2012, actualizada enero 2023). La directiva sobre autonomía en sistemas de armas no prohíbe explícitamente los sistemas de armas letales autónomos (LAWS), pero requiere que todos los sistemas permitan a comandantes y operadores “ejercer niveles apropiados de juicio humano sobre el uso de la fuerza” y exige revisiones de alto nivel antes del desarrollo o despliegue. La NDAA del FY2026 (firmada en diciembre de 2025) añadió requisitos específicos: prohíbe la adquisición de IA de naciones adversarias (China, Rusia, Irán, Corea del Norte, prohibiendo explícitamente DeepSeek); exige una política integral de ciberseguridad y gobernanza para todos los sistemas de IA/ML en 180 días; y requiere un equipo interfuncional para evaluación de modelos de IA para junio de 2026.
La prohibición de DeepSeek en el ámbito militar estadounidense es otro ángulo del dilema de soberanía tecnológica que ya exploramos en nuestro análisis sobre DeepSeek y la soberanía de datos — las decisiones geopolíticas ya determinan qué IA puedes usar.
La administración Trump revocó la orden ejecutiva de Biden sobre IA (EO 14110) el primer día de mandato, reemplazándola con la EO 14179 enfocada en “eliminar barreras al liderazgo estadounidense en IA.” El estatus de las prohibiciones de Biden sobre uso de IA en seguridad nacional (como la prohibición de automatizar armas nucleares bajo NSM-25) no está claro bajo la administración actual.
El vacío de responsabilidad legal
No existe un marco jurídico establecido que asigne responsabilidad específica cuando una IA comercial se utiliza en operaciones militares con víctimas. El Derecho Internacional Humanitario impone obligaciones a personas, no a sistemas de armas. Según el Manual de Derecho de Guerra del DoD, los comandantes y operadores son legalmente responsables. Sin embargo, múltiples académicos identifican un “vacío de responsabilidad tripartito”: los desarrolladores alegan que diseñaron los sistemas según especificaciones; los operadores alegan falta de control en tiempo real; los comandantes invocan confianza razonable en sistemas certificados. El gobierno estadounidense generalmente goza de inmunidad soberana bajo el Federal Tort Claims Act, con excepciones, y las operaciones militares en el extranjero están típicamente excluidas. Los proveedores comerciales de IA podrían enfrentar responsabilidad bajo teorías de responsabilidad por productos (defecto de diseño, falta de advertencia), pero esto no ha sido probado en tribunales para IA militar.
El EU AI Act excluye expresamente el uso militar
Hecho verificado (fuente primaria: Reglamento UE 2024/1689, Artículo 2(3), Considerando 24). El AI Act “no se aplica a los sistemas de IA cuando y en la medida en que se pongan en el mercado, se pongan en servicio o se utilicen con o sin modificaciones exclusivamente para fines militares, de defensa o de seguridad nacional.” Sin embargo, si un sistema de IA desarrollado para fines militares se utiliza posteriormente para otros propósitos civiles, sí entra en el ámbito de la normativa. La exención de seguridad nacional fue una adición tardía durante las negociaciones tripartitas y ha sido criticada por algunos juristas como contraria a la jurisprudencia previa de la UE.
9. Las declaraciones que definen la nueva política
Pete Hegseth redefine la “IA responsable”
Fuente primaria: memorando oficial del DoD sobre estrategia de IA, 9 de enero de 2026 (media.defense.gov); discurso en SpaceX Starbase, 12 de enero de 2026 (corroborado por AP, DefenseScoop, Breaking Defense). Hegseth declaró: “La IA responsable en el Departamento de Guerra significa capacidades de IA objetivamente veraces, desplegadas de forma segura y dentro de las leyes que rigen las actividades del departamento. No emplearemos modelos de IA que no te permitan librar guerras.” El memorando establece siete “Pace-Setting Projects,” incluyendo Swarm Forge (combate con IA), Agent Network (gestión de batalla con IA) y Ender’s Foundry (simulación con IA). Exige que los últimos modelos de IA se desplieguen “dentro de los 30 días de su lanzamiento público” y ordena nuevo lenguaje contractual permitiendo “cualquier uso legal” en todos los contratos de IA en 180 días. Define la “IA responsable” como IA libre de “‘sintonización’ ideológica.”
El concepto de “Agent Network” para gestión de batalla conecta directamente con la evolución de los agentes de IA que analizamos aquí — la diferencia es que estos agentes no gestionan tickets de soporte, sino operaciones militares.
Dario Amodei: defensa sí, autocracia no
Fuente primaria: ensayo “The Adolescence of Technology” en darioamodei.com, 26 de enero de 2026. Amodei advirtió sobre enjambres de “millones o miles de millones de drones armados completamente automatizados, controlados localmente por IA poderosa y coordinados estratégicamente por una IA aún más poderosa” que podrían constituir “un ejército invencible.” Su fórmula declarada: “Deberíamos usar IA para la defensa nacional en todas las formas excepto aquellas que nos harían más parecidos a nuestros adversarios autocráticos.” Abogó por bloquear exportaciones de chips a China durante la “ventana crítica 2025-2027” y por armar democracias con IA “de manera cuidadosa y dentro de límites.”
Sam Altman: “nunca digas nunca”
Fuente: declaraciones en la Vanderbilt University Summit on Modern Conflict, 10 de abril de 2025 (reportadas por Bloomberg, Washington Times). Altman declaró sobre desarrollo de armas: “Nunca diré nunca, porque el mundo podría ponerse realmente raro, y en ese punto, tienes que mirar lo que está pasando y decir ‘hagamos un trade-off entre algunas opciones realmente malas.’” Añadió: “No creo que la mayor parte del mundo quiera que la IA tome decisiones sobre armas,” pero también: “Tenemos que y estamos orgullosos de y realmente queremos participar en áreas de seguridad nacional.” OpenAI reforzó su giro institucional añadiendo al general retirado Paul Nakasone, exdirector de la NSA, a su junta directiva.
10. Tabla comparativa: quién permite qué
| Dimensión | Anthropic | OpenAI | xAI | |
|---|---|---|---|---|
| Prohibición original de uso militar | Sí (en AUP) | Sí (eliminada ene. 2024) | Sí (eliminada feb. 2025) | Nunca publicó restricciones |
| Restricciones actuales sobre armas | Prohíbe armas autónomas y vigilancia masiva | Prohíbe “desarrollar o usar armas” (con excepciones) | Sin prohibición explícita desde feb. 2025 | Sin política publicada |
| Contrato CDAO ($200M) | Sí (jul. 2025) | Sí (jun. 2025) | Sí (jul. 2025) | Sí (jul. 2025) |
| Modelo en GenAI.mil (no clasificado) | No reportado | ChatGPT (feb. 2026) | Gemini (dic. 2025, primero) | Grok (dic. 2025) |
| Acceso a redes clasificadas | Único modelo disponible (vía Palantir IL6) | Vía Microsoft Azure (todos los niveles) | Google Distributed Cloud (IL6+) | En desarrollo (IL5 declarado) |
| Acepta condiciones “todo uso legal” | No — mantiene 2 líneas rojas | Reportado que sí (no clasificado) | Reportado que sí (no clasificado) | Reportado que sí |
| Principios éticos publicados | Usage Policy detallada | Política de uso (sin mención militar) | Nuevos principios genéricos (feb. 2025) | Ninguno |
| Alianza con contratista de defensa | Palantir (nov. 2024) | Anduril (dic. 2024) | Múltiples (JWCC, Nimbus) | SpaceX (fusión feb. 2026) |
| Protestas internas documentadas | ”Inquietud interna” (fuente anónima) | Múltiples dimisiones de seguridad | 3,100+ firmantes contra Maven; 50+ despedidos por Nimbus | Ninguna reportada |
Conclusión: la bifurcación que definirá la era de la IA militar
La situación en febrero de 2026 marca un punto de inflexión. Anthropic es la única empresa entre las cuatro que resiste las condiciones del Pentágono, pero su posición es precaria: su modelo es el único disponible en redes clasificadas, lo que la hace temporalmente indispensable pero la convierte en el blanco principal de la presión política. Las otras tres empresas han cedido progresivamente: Google eliminó sus principios sobre armas, OpenAI borró su prohibición militar, y xAI nunca estableció restricciones.
El caso más revelador es la evolución de Google: de 3,100 empleados protestando contra Project Maven en 2018 a ser el primer modelo en GenAI.mil en 2025, pasando por la eliminación silenciosa de sus principios sobre armas. Este arco de siete años sugiere que la presión comercial y geopolítica ha resultado irresistible para las empresas de IA, independientemente de sus posturas iniciales. Es la misma dinámica que vimos con la burbuja de los 7 billones — cuando hay tanto dinero en juego, los principios se negocian.
Tres vacíos críticos quedan sin resolver. Primero, no existe marco legal claro para la responsabilidad cuando una IA comercial se utiliza en operaciones con víctimas; la responsabilidad recae teóricamente en la cadena de mando humana, pero el “vacío tripartito” identificado por académicos persiste. Segundo, el papel exacto de Claude en la Operación Absolute Resolve permanece sin confirmar oficialmente; ni el Pentágono, ni Anthropic, ni Palantir han proporcionado detalles específicos. Tercero, la redefinición de “IA responsable” por parte de Hegseth —que elimina cualquier restricción más allá de la ley vigente— no ha sido probada contra los marcos existentes del propio DoD, incluyendo los Principios Éticos de IA adoptados en 2020, que enfatizan equidad, trazabilidad y gobernabilidad.
Lo que está en juego no es simplemente un contrato de $200 millones. Es si las empresas que construyen la tecnología más poderosa de la era pueden mantener algún límite ético que el poder militar no pueda anular, o si la lógica de la competencia geopolítica acabará por subordinar toda salvaguarda a la demanda de “cualquier uso legal.”
Febrero 2026
Fuentes: Anthropic (comunicados oficiales, AUP), CDAO/DoD (anuncios de contratos, Directive 3000.09, NDAA FY2026), Palantir (BusinessWire, SEC filings), OpenAI (blog oficial, políticas de uso), Google (AI Principles, comunicados), xAI (blog oficial), Wall Street Journal, Axios, Bloomberg, The Intercept, CNBC, AP, DefenseScoop, Breaking Defense, Human Rights Watch, Airwars, New York Times. Las opiniones editoriales son del autor.
Sigue explorando
- Claude Opus 4.6: El Modelo que Hundió la Bolsa - El mismo modelo que ahora opera en redes clasificadas del Pentágono provocó un pánico bursátil de $285.000M
- La IA es el nuevo canal de fuga de datos - Cuando los datos que introduces en un LLM son más valiosos que la respuesta que recibes
- Tendencias de IA en 2026: Lo que realmente importa - El contexto general del año en que la IA militar dejó de ser ciencia ficción
También te puede interesar
DeepSeek: el dilema entre coste, rendimiento y soberanía de datos
Costes bajos, rendimiento alto, código abierto... y tus datos en servidores chinos. Análisis de riesgos y alternativas para empresas europeas.
La IA Madura: Menos Código, Más Foco
43 millones de pull requests en GitHub. Johnson & Johnson pasando de 900 casos de uso a un puñado. 2026 es el año en que dejamos de experimentar.
OpenAI lanza Prism: el fin del chatbot genérico ha comenzado
Un workspace gratuito con GPT-5.2 para escribir papers en LaTeX. Pero la noticia real no es Prism: es lo que representa sobre hacia dónde va la IA.