

La Inteligencia Artificial como Apoyo Militar: El Rol Decisivo de Claude en la Captura de Nicolás Maduro
Redactado por Grok
En las últimas décadas, la inteligencia artificial (IA) ha pasado de ser una herramienta experimental a un pilar fundamental de las estrategias militares modernas. Países como Estados Unidos, China y Rusia invierten miles de millones en sistemas de IA que potencian la inteligencia, la vigilancia, el reconocimiento (ISR), la planificación operativa y hasta el control de sistemas autónomos. Desde drones que identifican objetivos en tiempo real hasta algoritmos que analizan terabytes de datos satelitales para predecir movimientos enemigos, la IA ya no es un apoyo logístico: es un multiplicador de fuerza que reduce riesgos para el personal humano y acelera la toma de decisiones en entornos de alta complejidad.
El Pentágono, por ejemplo, ha impulsado iniciativas como Project Maven (iniciada en 2017 con Google) para el análisis automático de imágenes de drones, o el uso de IA en sistemas de logística predictiva y ciberdefensa. En conflictos recientes, la IA ha permitido operaciones quirúrgicas con mínima exposición de tropas. Sin embargo, su empleo plantea dilemas éticos profundos: ¿dónde termina el apoyo humano y comienza la autonomía letal? Este debate ha cobrado protagonismo global tras la revelación de que un modelo de IA comercial fue clave en una de las operaciones más audaces del siglo XXI.
El caso de la captura de Nicolás Maduro: Claude en acción
El 3 de enero de 2026, fuerzas especiales estadounidenses (Delta Force) ejecutaron la Operación “Absolute Resolve” en Caracas. Tras bombardeos selectivos en varios puntos de la capital venezolana, las tropas capturaron al entonces presidente Nicolás Maduro y a su esposa Cilia Flores en un compound fuertemente fortificado. Maduro fue trasladado a Nueva York para enfrentar cargos por narcoterrorismo, tráfico de drogas y armas. La operación, que según fuentes venezolanas dejó decenas de fallecidos, marcó el fin de un régimen de 13 años y generó repercusiones internacionales.Lo que pocos sabían en aquel momento es que la IA jugó un papel central.
Según una investigación exclusiva de The Wall Street Journal publicada el 13 de febrero de 2026, el Pentágono utilizó el modelo Claude, desarrollado por la empresa estadounidense Anthropic, durante la planificación y ejecución de la redada. El despliegue se realizó a través de la integración de Claude con la plataforma de Palantir Technologies —empresa especializada en análisis de big data para defensa—, bajo un contrato de hasta 200 millones de dólares adjudicado el verano anterior.Aunque el Pentágono no ha detallado públicamente las funciones exactas de Claude, fuentes familiarizadas con la operación indican que el modelo procesó inteligencia clasificada en tiempo real: análisis de imágenes satelitales, patrones de movimiento de convoyes, identificación de escondites y apoyo en la generación de escenarios operativos. Claude no pilotó drones ni disparó armas, pero actuó como “cerebro silencioso” que sintetizó volúmenes masivos de datos para minimizar riesgos y maximizar precisión. Es la primera vez que se confirma el uso de un modelo de IA generativa comercial en una operación militar clasificada de alto perfil.Las declaraciones que encendieron la polémicaLa revelación desató una tormenta entre Anthropic y la Administración Trump.
La empresa, fundada por exingenieros de OpenAI y conocida por su enfoque “ético” y “constitucional” en IA, prohíbe explícitamente en sus políticas de uso el empleo de Claude para “facilitar violencia, desarrollar armas o realizar vigilancia masiva”. Un portavoz de Anthropic declaró al WSJ: “No podemos comentar si Claude, o cualquier otro modelo de IA, se utilizó para alguna operación específica, clasificada o no. Cualquier uso de Claude -ya sea en el sector privado o en el gobierno- debe cumplir con nuestras Políticas de Uso, que regulan cómo se despliega. Trabajamos estrechamente con nuestros socios para garantizar el cumplimiento”.Sin embargo, tras la operación, un empleado de Anthropic preguntó a un contacto de Palantir si Claude había participado, lo que generó malestar en el Pentágono. El secretario de Defensa, Pete Hegseth, dio un ultimátum a Dario Amodei, CEO de Anthropic: hasta el 27 de febrero de 2026, la empresa debe eliminar “salvaguardas ideológicas” y otorgar acceso sin restricciones al modelo para usos militares legales. Hegseth ha sido enfático: “La IA del Pentágono no será woke.
No emplearemos modelos que no permitan a nuestros combatientes ganar guerras”.David Sacks, principal asesor de Trump en materia de IA, fue más duro: acusó a Anthropic de “llevar a cabo una sofisticada estrategia de captura regulatoria basada en el alarmismo”. Un alto funcionario de la Casa Blanca advirtió: “Cualquier empresa que ponga en peligro el éxito operativo de nuestros combatientes sobre el terreno es una empresa con la que debemos reevaluar nuestra colaboración en el futuro”.Amodei, por su parte, ha expresado públicamente su preocupación por el uso de IA en armas autónomas letales y vigilancia doméstica. En eventos previos ha advertido que modelos potentes podrían usarse para “medir el sentimiento público, detectar focos de deslealtad y erradicarlos antes de que crezcan”. La empresa mantiene que apoya la seguridad nacional de EE.UU., pero se niega a relajar sus guardarraíles éticos heredados de la era Biden.Implicaciones más allá de VenezuelaEste episodio ilustra la tensión creciente entre las grandes tecnológicas “éticas” y las demandas de un Pentágono que busca ventaja competitiva frente a China, que avanza sin tantos escrúpulos en IA militar. Mientras OpenAI, Google y xAI negocian contratos militares, Anthropic se ha posicionado como la más restrictiva, lo que pone en riesgo su contrato de 200 millones y su acceso a plataformas clasificadas.Para los defensores de la IA responsable, el caso Maduro demuestra que incluso empresas con políticas estrictas terminan involucradas en operaciones letales. Para los halcones militares, las restricciones corporativas son un lujo que EE.UU. no puede permitirse en un mundo multipolar.Mientras tanto, en redes sociales circularon miles de imágenes y videos falsos generados por IA que mostraban la captura de Maduro (muchos detectados por herramientas como SynthID de Google), recordándonos que la misma tecnología que ayudó a capturarlo también puede distorsionar la realidad pública.La IA ya no es ciencia ficción en los campos de batalla: es un aliado estratégico. El caso Maduro no solo confirma su utilidad operativa, sino que obliga al mundo a definir urgentemente reglas claras sobre su uso militar. Mientras el reloj corre hasta el 27 de febrero, la pregunta sigue abierta: ¿puede la IA ser un apoyo militar sin sacrificar los principios éticos que la hicieron posible? La respuesta definirá no solo el futuro de Anthropic, sino el de la guerra moderna.
