Während die europäischen Märkte sich in dreißig Minuten schließen — Paris und Frankfurt schließen um 17:30 Uhr Ortszeit — und Wall Street ihre morgendliche Sitzung fortsetzt, ist eine neue Illustration der strategischen Inkohärenz der USA aus dem Pentagon aufgetaucht. Die Einstufung von Anthropic als "Risiko für die Lieferkette" in der vergangenen Woche, während die Nutzung seiner KI Claude durch Palantir für die iranischen Operationen aufrechterhalten wird, offenbart einen Widerspruch, der über bloßes bürokratisches Durcheinander hinausgeht.
Die doppelte Denke des militärisch-industriellen Komplexes
Laut CNBC hat das Pentagon Anthropic Anfang März offiziell in seine Liste der risikobehafteten Anbieter aufgenommen und dabei Bedenken hinsichtlich der potenziellen Auswirkungen von Claude auf die Verteidigungslieferkette geäußert. Gleichzeitig nutzt Palantir — dieser Datenanalyse-Riese unter der Leitung von Alex Karp — weiterhin genau diese KI für seine Operationen im Zusammenhang mit dem Iran-Konflikt.
Michael, der technische Direktor des Pentagons, versuchte, das Ausmaß dieser Entscheidung zu minimieren: "Das soll nicht bestrafend sein", sagte er. Diese umständliche Formulierung verrät die Verlegenheit einer Institution, die in flagranti beim Widerspruch ertappt wurde. Denn wenn Anthropic wirklich ein Risiko für die nationale Sicherheit darstellt, warum wird dann die Nutzung in sensiblen militärischen Operationen erlaubt?
Die wahren Herausforderungen hinter der Fassade
Dieser scheinbare Widerspruch verbirgt in Wirklichkeit einen tiefergehenden Kampf um die Kontrolle des militärischen KI-Ökosystems. Anthropic, gegründet von ehemaligen Führungskräften von OpenAI, entwickelt "verfassungsgemäße" KI-Modelle, die als sicherer und stärker an menschlichen Werten orientiert gelten sollen. Ein Ansatz, der in bestimmten Kreisen des Pentagons, die an weniger ethisch eingeschränkten Werkzeugen gewöhnt sind, auf Ablehnung stoßen könnte.
Palantir hingegen hat sich als unverzichtbarer Vermittler zwischen Silicon Valley und dem militärisch-industriellen Komplex etabliert. Mit einem Umsatz von 2,2 Milliarden Dollar im Jahr 2025 — von denen 55% aus Regierungsaufträgen stammen — hat Karp's Unternehmen ein großes Interesse daran, seine privilegierten Beziehungen zu seinen Technologieanbietern aufrechtzuerhalten, selbst wenn es bedeutet, durch die trüben Gewässer offizieller Einstufungen zu navigieren.
Der Iran als Experimentierlabor
Die fortgesetzte Nutzung von Claude für die iranischen Operationen ist nicht unbedeutend. Seit der Eskalation der Spannungen im Nahen Osten ist der Iran zu einem bevorzugten Testfeld für neue Überwachungs- und prädiktive Analysetechnologien geworden. Die Fähigkeiten von Claude zur Verarbeitung natürlicher Sprache ermöglichen die Echtzeitanalyse abgefangener Kommunikationen, sozialer Netzwerke und Informationsströme auf Persisch.
Diese Situation offenbart die grundlegende Heuchelei der amerikanischen Technologiepolitik: Auf der einen Seite wird das Banner der nationalen Sicherheit geschwenkt, um Einschränkungen zu rechtfertigen; auf der anderen Seite wird weggeschaut, wenn die operativen Bedürfnisse es erfordern. Ein Ansatz, der seltsamerweise an das Management wirtschaftlicher Sanktionen erinnert, bei dem Ausnahmen sprunghaft zunehmen, sobald kommerzielle Interessen ins Spiel kommen.
Die Finanzmärkte, stille Zeugen
Während die asiatischen Börsen seit mehreren Stunden geschlossen sind — Tokio schloss um 15:00 Uhr Ortszeit, Shanghai zur gleichen Zeit — und Abu Dhabi erst morgen früh um 10:00 Uhr wieder öffnet, verdauen die westlichen Investoren noch die Implikationen dieser Neuigkeit. Die Aktien von Palantir sind seit der Eröffnung von Wall Street um 2,3% gestiegen, ein Zeichen dafür, dass der Markt diesen Widerspruch als verkapptes grünes Licht für die Fortsetzung technologischer Kooperationen interpretiert.
Diese Reaktion an der Börse illustriert perfekt die Diskrepanz zwischen offiziellen Reden und der wirtschaftlichen Realität. Die Investoren wissen, wie sie die Signale deuten müssen: Wenn das Pentagon sagt "das ist nicht bestrafend", hören sie "business as usual".
Eine Strategie mit variabler Geometrie
Die Einstufung von Anthropic als Risiko für die Lieferkette ist Teil einer umfassenderen Strategie zur Kontrolle des KI-Ökosystems. Indem das Pentagon die Klassifizierungen und Einschränkungen vervielfacht, gibt es sich die Möglichkeit, seine Beziehungen zu Technologieunternehmen je nach aktuellen Bedürfnissen zu modulieren.
Dieser Ansatz mit variabler Geometrie wirft grundlegende Fragen zur Kohärenz der nationalen Sicherheitspolitik auf. Wie kann man den europäischen Verbündeten — deren Märkte in wenigen Minuten schließen — eine Politik rechtfertigen, die je nach Umständen zu wechseln scheint? Wie kann die Glaubwürdigkeit der amerikanischen Institutionen aufrechterhalten werden, wenn ihre eigenen Entscheidungen sich widersprechen?
Die Zukunft der militärischen KI in Frage gestellt
Diese Angelegenheit offenbart vor allem die Unreife des amerikanischen Regulierungsrahmens im Angesicht der Herausforderungen der militärischen KI. Im Gegensatz zu den traditionellen Rüstungssektoren, in denen die Regeln seit Jahrzehnten festgelegt sind, entwickelt sich die künstliche Intelligenz in einem rechtlichen Vakuum, das die Bürokratien nur schwer füllen können.
Das Ergebnis? Eine schizophrene Politik, in der dieselben Technologien gleichzeitig als Risiken und als unverzichtbare Werkzeuge betrachtet werden. Ein Widerspruch, der nicht bestehen kann, ohne die Glaubwürdigkeit der amerikanischen Institutionen und ihre Fähigkeit, kohärente internationale Standards zu definieren, zu untergraben.
Während die letzten Transaktionen an den europäischen Märkten vor der Schließung durchgeführt werden, zeichnet sich eine Gewissheit ab: Der Kampf um die Kontrolle der militärischen KI hat gerade erst begonnen, und die ersten Opfer werden die Kohärenz und Transparenz der öffentlichen Politik sein.
