Claude, el producto insignia de Anthropic, ha sido encontrado involucrado en la operación militar de EE.UU. en Venezuela para capturar a su presidente y su esposa, según los informes.
A pesar de las políticas contra la violencia de Anthropic, la asociación de la compañía con Palantir permite que Claude sea utilizado para operaciones militares. Algunos creen que la IA fue utilizada para tareas no violentas.

Una serie de nuevos informes ha revelado que el ejército de EE.UU. utilizó el modelo de inteligencia artificial de Anthropic, Claude, durante la operación de alto riesgo para capturar al expresidente venezolano Nicolás Maduro.
La misión, conocida como "Operación Resolve", tuvo lugar a principios de enero de 2026 y resultó en el arresto de Maduro y su esposa, Cilia Flores, en el corazón de Caracas. Según The Wall Street Journal y Fox News, Claude fue integrado en la misión a través de la asociación de Anthropic con la empresa de análisis de datos Palantir Technologies.
El Departamento de Guerra de EE.UU., dirigido por el Secretario Pete Hegseth, ha utilizado cada vez más modelos de IA comerciales para modernizar sus operaciones de combate.
Los detalles sobre qué tareas específicas realizó Claude están clasificados, pero se sabe que la IA se utiliza para resumir cantidades masivas de datos de inteligencia, analizar imágenes satelitales y posiblemente proporcionar apoyo en la toma de decisiones para movimientos complejos de tropas.
La operación ocurrió en las primeras horas del 3 de enero de 2026, cuando las Fuerzas de Operaciones Especiales de EE.UU., incluidos los comandos de la Fuerza Delta, lograron irrumpir en el palacio fortificado de Maduro. El presidente Donald Trump describió posteriormente que Maduro fue "asaltado repentinamente" antes de que pudiera alcanzar una sala segura reforzada con acero.
Las defensas aéreas venezolanas fueron suprimidas y varios sitios militares fueron bombardeados durante la misión. Maduro fue transportado a un buque de guerra estadounidense y luego a la ciudad de Nueva York, donde actualmente enfrenta cargos federales de narcoterrorismo e importación de cocaína.
Claude está diseñado con un enfoque constitucional en la seguridad, entonces, ¿cómo se utilizó en una operación militar letal? Las pautas de uso público de Anthropic prohíben que Claude sea utilizado para violencia, desarrollo de armas o vigilancia.
Anthropic ha declarado que monitorea todo el uso de sus herramientas y asegura que cumplan con sus políticas. Sin embargo, la asociación con Palantir permite al ejército usar Claude en entornos clasificados.
Fuentes familiarizadas con el asunto sugieren que la IA puede haber sido utilizada para tareas de apoyo no letales, como traducir comunicaciones o procesar logística. Sin embargo, el Departamento de Guerra actualmente está presionando para que las empresas de IA eliminen muchas de sus restricciones estándar para uso militar.
Los informes indican que la administración Trump está considerando cancelar un contrato de $200 millones con Anthropic porque la compañía ha expresado preocupaciones sobre el uso de su IA para drones autónomos o vigilancia. El Secretario Pete Hegseth ha declarado que "el futuro de la guerra estadounidense se deletrea IA" y ha dejado claro que el Pentágono no trabajará con empresas que limiten las capacidades militares.
Obtén 8% de CASHBACK cuando gastes criptomonedas con la tarjeta Visa COCA. Solicita tu tarjeta GRATIS.


