Mientras los mercados europeos se preparan para cerrar en treinta minutos —París y Fráncfort cierran a las 17:30 hora local— y Wall Street continúa su sesión matutina, una nueva ilustración de la incoherencia estratégica estadounidense acaba de emerger del Pentágono. La designación de Anthropic como "riesgo para la cadena de suministro" la semana pasada, al tiempo que se mantiene el uso de su IA Claude por Palantir para las operaciones iraníes, revela una contradicción que supera el simple desliz burocrático.
El doble pensamiento del complejo militar-industrial
Según CNBC, el Pentágono ha clasificado oficialmente a Anthropic en su lista de proveedores de riesgo a principios de marzo, invocando preocupaciones sobre el impacto potencial de Claude en la cadena de suministro de defensa. Sin embargo, al mismo tiempo, Palantir —este gigante del análisis de datos dirigido por Alex Karp— sigue utilizando esta misma IA para sus operaciones relacionadas con el conflicto iraní.
Michael, el director técnico del Pentágono, ha intentado minimizar la magnitud de esta decisión: "No se supone que sea punitivo", declaró. Esta formulación enrevesada delata la incomodidad de una institución sorprendida en flagrante incoherencia. Porque si Anthropic realmente representa un riesgo para la seguridad nacional, ¿por qué permitir su uso en operaciones militares sensibles?
Los verdaderos desafíos detrás de la fachada
Esta aparente contradicción oculta en realidad una batalla más profunda por el control del ecosistema de IA militar. Anthropic, fundada por antiguos ejecutivos de OpenAI, desarrolla modelos de IA "constitucional" que se supone son más seguros y más alineados con los valores humanos. Un enfoque que puede desagradar a ciertos círculos del Pentágono acostumbrados a herramientas menos restringidas éticamente.
Palantir, por su parte, se ha consolidado como el intermediario indispensable entre Silicon Valley y el complejo militar-industrial. Con unos ingresos de 2,2 mil millones de dólares en 2025 —de los cuales el 55% provienen de contratos gubernamentales— la empresa de Karp tiene todo el interés en mantener sus relaciones privilegiadas con sus proveedores tecnológicos, incluso si eso implica navegar por las aguas turbias de las designaciones oficiales.
Irán como laboratorio de experimentación
El uso continuo de Claude para las operaciones iraníes no es trivial. Desde la escalada de tensiones en el Medio Oriente, Irán se ha convertido en un terreno de experimentación privilegiado para las nuevas tecnologías de vigilancia y análisis predictivo. Las capacidades de procesamiento del lenguaje natural de Claude permiten analizar en tiempo real las comunicaciones interceptadas, las redes sociales y los flujos de información en persa.
Esta situación revela la hipocresía fundamental de la política tecnológica estadounidense: por un lado, se agita la bandera de la seguridad nacional para justificar restricciones; por el otro, se hace la vista gorda cuando las necesidades operativas lo exigen. Un enfoque que recuerda extrañamente la gestión de las sanciones económicas, donde las exenciones se multiplican en cuanto los intereses comerciales entran en juego.
Los mercados financieros, testigos silenciosos
Mientras las bolsas asiáticas están cerradas desde hace varias horas —Tokio cerró a las 15:00 hora local, Shanghái a la misma hora— y Abu Dabi no reabrirá hasta las 10:00 mañana por la mañana, los inversores occidentales aún digieren las implicaciones de esta noticia. Las acciones de Palantir han ganado un 2,3% desde la apertura de Wall Street, señal de que el mercado interpreta esta contradicción como un visto bueno disfrazado para continuar las colaboraciones tecnológicas.
Esta reacción bursátil ilustra perfectamente la desconexión entre los discursos oficiales y la realidad económica. Los inversores saben descifrar las señales: cuando el Pentágono dice "no es punitivo", ellos oyen "negocios como siempre".
Una estrategia de geometría variable
La designación de Anthropic como riesgo para la cadena de suministro se inscribe en una estrategia más amplia de control del ecosistema de IA. Al multiplicar las clasificaciones y restricciones, el Pentágono se da los medios para modular sus relaciones con las empresas tecnológicas según sus necesidades del momento.
Este enfoque de geometría variable plantea preguntas fundamentales sobre la coherencia de la política de seguridad nacional. ¿Cómo justificar ante los aliados europeos —cuyos mercados cierran en unos minutos— una política que parece cambiar según las circunstancias? ¿Cómo mantener la credibilidad de las instituciones estadounidenses cuando sus propias decisiones se contradicen?
El futuro de la IA militar en cuestión
Este asunto revela sobre todo la inmadurez del marco regulatorio estadounidense frente a los desafíos de la IA militar. A diferencia de los sectores tradicionales de armamento, donde las reglas están establecidas desde hace décadas, la inteligencia artificial evoluciona en un vacío jurídico que las burocracias luchan por llenar.
¿El resultado? Una política esquizofrénica donde las mismas tecnologías son simultáneamente consideradas como riesgos y herramientas indispensables. Una contradicción que no puede perdurar sin debilitar la credibilidad de las instituciones estadounidenses y su capacidad para definir estándares internacionales coherentes.
Mientras las últimas transacciones se realizan en las plazas europeas antes del cierre, una certeza emerge: la batalla por el control de la IA militar apenas comienza, y las primeras víctimas serán la coherencia y la transparencia de las políticas públicas.
