Pendant que les marchés européens s'apprêtent à fermer dans trente minutes — Paris et Francfort bouclent à 17h30 heure locale — et que Wall Street poursuit sa séance matinale, une nouvelle illustration de l'incohérence stratégique américaine vient d'émerger du Pentagone. La désignation d'Anthropic comme "risque pour la chaîne d'approvisionnement" la semaine dernière, tout en maintenant l'utilisation de son IA Claude par Palantir pour les opérations iraniennes, révèle une contradiction qui dépasse le simple cafouillage bureaucratique.

La double pensée du complexe militaro-industriel

Selon CNBC, le Pentagone a officiellement classé Anthropic dans sa liste des fournisseurs à risque début mars, invoquant des préoccupations sur l'impact potentiel de Claude sur la chaîne d'approvisionnement de défense. Pourtant, dans le même temps, Palantir — ce géant de l'analyse de données dirigé par Alex Karp — continue d'utiliser cette même IA pour ses opérations liées au conflit iranien.

Michael, le directeur technique du Pentagone, a tenté de minimiser la portée de cette décision : "Ce n'est pas censé être punitif", a-t-il déclaré. Cette formulation alambiquée trahit l'embarras d'une institution prise en flagrant délit d'incohérence. Car si Anthropic représente vraiment un risque pour la sécurité nationale, pourquoi autoriser son utilisation dans des opérations militaires sensibles ?

Les vrais enjeux derrière la façade

Cette contradiction apparente cache en réalité une bataille plus profonde pour le contrôle de l'écosystème IA militaire. Anthropic, fondée par d'anciens cadres d'OpenAI, développe des modèles d'IA "constitutionnelle" censés être plus sûrs et plus alignés sur les valeurs humaines. Une approche qui peut déplaire à certains cercles du Pentagone habitués à des outils moins contraints éthiquement.

Palantir, de son côté, s'est imposé comme l'intermédiaire incontournable entre Silicon Valley et le complexe militaro-industriel. Avec un chiffre d'affaires de 2,2 milliards de dollars en 2025 — dont 55% proviennent de contrats gouvernementaux — l'entreprise de Karp a tout intérêt à maintenir ses relations privilégiées avec ses fournisseurs technologiques, quitte à naviguer dans les eaux troubles des désignations officielles.

L'Iran comme laboratoire d'expérimentation

L'utilisation continue de Claude pour les opérations iraniennes n'est pas anodine. Depuis l'escalade des tensions au Moyen-Orient, l'Iran est devenu un terrain d'expérimentation privilégié pour les nouvelles technologies de surveillance et d'analyse prédictive. Les capacités de traitement du langage naturel de Claude permettent d'analyser en temps réel les communications interceptées, les réseaux sociaux, et les flux d'information en persan.

Cette situation révèle l'hypocrisie fondamentale de la politique technologique américaine : d'un côté, on brandit l'étendard de la sécurité nationale pour justifier des restrictions ; de l'autre, on ferme les yeux quand les besoins opérationnels l'exigent. Une approche qui rappelle étrangement la gestion des sanctions économiques, où les exemptions se multiplient dès que les intérêts commerciaux entrent en jeu.

Les marchés financiers, témoins silencieux

Alors que les bourses asiatiques sont fermées depuis plusieurs heures — Tokyo a bouclé à 15h00 heure locale, Shanghai à la même heure — et qu'Abu Dhabi ne rouvrira qu'à 10h00 demain matin, les investisseurs occidentaux digèrent encore les implications de cette nouvelle. Les actions de Palantir ont gagné 2,3% depuis l'ouverture de Wall Street, signe que le marché interprète cette contradiction comme un feu vert déguisé pour poursuivre les collaborations technologiques.

Cette réaction boursière illustre parfaitement la déconnexion entre les discours officiels et la réalité économique. Les investisseurs savent décrypter les signaux : quand le Pentagone dit "ce n'est pas punitif", ils entendent "business as usual".

Une stratégie à géométrie variable

La désignation d'Anthropic comme risque pour la chaîne d'approvisionnement s'inscrit dans une stratégie plus large de contrôle de l'écosystème IA. En multipliant les classifications et les restrictions, le Pentagone se donne les moyens de moduler ses relations avec les entreprises technologiques selon ses besoins du moment.

Cette approche à géométrie variable pose des questions fondamentales sur la cohérence de la politique de sécurité nationale. Comment justifier auprès des alliés européens — dont les marchés ferment dans quelques minutes — une politique qui semble changer selon les circonstances ? Comment maintenir la crédibilité des institutions américaines quand leurs propres décisions se contredisent ?

L'avenir de l'IA militaire en question

Cette affaire révèle surtout l'immaturité du cadre réglementaire américain face aux défis de l'IA militaire. Contrairement aux secteurs traditionnels de l'armement, où les règles sont établies depuis des décennies, l'intelligence artificielle évolue dans un vide juridique que les bureaucraties peinent à combler.

Le résultat ? Une politique schizophrène où les mêmes technologies sont simultanément considérées comme des risques et des outils indispensables. Une contradiction qui ne peut perdurer sans affaiblir la crédibilité des institutions américaines et leur capacité à définir des standards internationaux cohérents.

Pendant que les dernières transactions s'effectuent sur les places européennes avant la fermeture, une certitude émerge : la bataille pour le contrôle de l'IA militaire ne fait que commencer, et les premières victimes seront la cohérence et la transparence des politiques publiques.