UB-Logo Online MagazinUntergrund-Blättle

Der Einsatz von KI-Systemen zur Zielbestimmung für die Kriegsmaschine der USA

Der Einsatz von KI-Systemen zur Zielbestimmung für die Kriegsmaschine der USA KI-Killing Time

eraser-677583-70

Digital

Könnte der US-Angriff auf den Iran das erste grosse KI-Kriegsverbrechen zur Folge gehabt haben?

Bombardment einer Schule (Shajareh Tayyebeh) in Minab, Iran, 28. Februar 2026.
Mehr Artikel
Mehr Artikel
Bild vergrössern

Bombardment einer Schule (Shajareh Tayyebeh) in Minab, Iran, 28. Februar 2026. Foto: Abbas Zakeri (CC-BY 4.0 cropped)

Datum 9. März 2026
3
0
Lesezeit6 min.
DruckenDrucken
KorrekturKorrektur
Tausend Ziele in 24 Stunden! Das, was Jeff Bezos nach seinem letzten Kahlschlag von der Redaktion der Washington Post (WaPo) übrig liess,[1] berichtete am 04. März 2026 von dem ungeheuren militärischen Erfolg, den die Anwendung von KI-Systemen in der Kriegsführung mit sich bringt.[2] Der Angriff auf den Iran stelle die „erste grosse Kriegsoperation“ dar, in der das Pentagon umfassend KI-gestützte Plattformen verwende, so die WaPo.

Im Einsatz befinden sich zwei miteinander verwobene Systeme: Palantir stelle das Maven Smart System zur Verfügung, das eine „erstaunliche Menge klassifizierter Daten von Satelliten, Überwachung und anderer nachrichtendienstlicher Quellen“ in Echtzeit auswerten kann, um Ziele zu erfassen und zu priorisieren. Hierbei kommt das KI-Tool Claude des Unternehmens Anthropic zum Einsatz.

Marven und Claude haben in der Planungsphase des Krieges binnen kürzester Zeit „Hunderte von Zielen“ vorgeschlagen, erläuterte die WaPo unter Verweis auf Insiderinformationen, hierbei seien von den KI-gestützten Informationssystemen auch „präzise Koordinaten“ geliefert worden. Die wochenlange Planungszeit einer Militärkampagne sei in eine „Echtzeit-Operation“ transformiert worden.
Das mit Claude verwobene Maven-System wurde ab 2024 in die Militärmaschine des Pentagons integriert, wobei die Trump-Administration dessen Einsatz rasch verallgemeinerte, sodass inzwischen rund 20 000 US-Militärangehörige zugriff hierauf haben. Neben der Zielfindung dient es auch der Logistiküberwachung und Aufklärungsauswertung.

Dabei ist nicht nur die Zeitverkürzung in der Planungsphase wichtig. Die Reaktionszeit während des Krieges ist ebenfalls ein entscheidender Faktor. Das komplexe KI-System des Pentagons erlaubt es der Militärmaschine der Vereinigten Staaten, sehr schnell auf Entwicklungen zu reagieren. Je schneller das Militär auf die Lokalisierung und exakte Identifizierung eines potenziellen Ziels mit dem entsprechend kalibrierten Angriff reagieren kann, desto effizienter kann das militärische Potenzial der Gegenseite reduziert werden. Die gesamte Entscheidungskette kann enorm reduziert werden, es liesse sich von einer „Killtime“ sprechen, die durch den Einsatz Künstlicher Intelligenz auch bei einer umfassenden Bombardierung mit Hunderten von Zielen im Iran massiv reduziert werden konnte.

Der KI-gestützte Echtzeitkrieg scheint nahezu erreicht. Maven stelle einen „Paradigmenwechsel“ dar, so ein Sicherheitsexperte gegenüber der WaPO, da die KI nun „das US-Militär in die Lage versetzt, Zielpakete mit Maschinengeschwindigkeit zu entwickeln, anstatt mit menschlicher Geschwindigkeit“. Es gebe aber auch „Nachteile“, da die KI Fehler mache, weshalb „wir Menschen brauchen, die den Output der generativen KI überprüfen, wenn es um Fragen von Tod und Leben geht“.

Massenmörderische Halluzination?

Tausend Ziele in 24 Stunden. Und dann sind da mehr als 100 Kinderleichen in der bombardierten Mädchenschule im südiranischen Minab, die am Samstag, dem 28. Februar, bei einem Luftangriff getötet wurden.[3] Der 28. Februar – das ist eben jener erste Tag des Krieges, an dem die KI-Systeme des Pentagons der US-Kriegsmaschine binnen kürzester Zeit mehr als tausend Ziele liefern konnten, wie die WaPo stolz betonte. Die Schule befand sich in unmittelbarer Nähe einer Basis der iranischen Revolutionsgarden, sie war von dieser durch einen Zaun getrennt.

Auf Bildern kommerzieller Satelliten, die von US-Medien ausgewertet worden sind,[4] ist aber eindeutig zu sehen, es sich nicht um „Kollateralschäden“ handelt. Das Gebäude der Schule ist direkt, präzise getroffen worden. Insgesamt sind sieben Einschläge auf dem Komplex identifizierbar, wobei auch eine Klinik getroffen worden ist, die ebenfalls durch eine Mauer vom Gelände der Militärbasis getrennt war.

Nach Medieneinsätzungen könnte die Ursache dieses Kriegsverbrechens in „veralteten Daten“ zu finden sein.[5] Das gesamte Areal war zuvor von den iranischen Revolutionsgarden genutzt worden, die Schule wurde „zwischen 2013 und 2016“ eingerichtet und abgetrennt, die Klinik zwischen 2022 und 2022. Die Zielbestimmung des US-Militärs wäre demnach aufgrund einer sehr alten Datenlage erfolgt.

Nach dem besagten Bericht der WaPo ist auch klar, „wer“ hierfür höchstwahrscheinlich verantwortlich war: Maven samt Claude waren für die Zielbestimmung zuständig, wobei zwei Optionen in Frage kommen: Erstens könnte das Pentagon tatsächlich mit veralteten, mehr als zehnjährigen Material arbeiten. Oder, zweitens, es handelte sich bei der Designierung der Schule zum Ziel um eine jener „Halluzinationen“, zu denen alle Grossen Sprachmodelle (LLM) wie Claude zwangsläufig tendieren.
Alle LLMs arbeiten mit statistischen Wahrscheinlichkeiten, die im Laufe ihres Trainings eingeschliffen werden, es sind faktisch mit ungeheurem Rechenkapazitäten operierende Autovervollständigung-Lösungen. Und, wie wahrscheinlich ist es, dass neben einer Marinebasis der iranischen Revolutionsgarde sich eine Mädchenschule Befindet?

Unabhängig von der konkreten Fehlerursache,[6] wirft dieser Vorfall ein bezeichnendes Licht auf die Überprüfung der KI-generierten Ziele durch konkrete Menschen, die Pentagon-Insider gegenüber der WaPo erwähnten. Der Druck, möglichst rasch möglichst viele Ziele zu liefern, um beim Kriegsbeginn den gewünschten Effekt des „Shock and awe“ zu erzielen,[7] dürfte enorm gewesen sein.

Entsprechend oberflächlich würde dann die Überprüfung ablaufen. Zumal es sich bei Pete Hegseth, dem gegenwärtigen Chef des Pentagons, um einen astreinen Faschisten handelt (ähnlich Stephen Miller[8]), der eine auf Entmenschlichung zielende Rhetorik[9] absondert – und der gezielt die Sicherheitsmassnahmen, Einsatzregeln und Protokolle des Pentagons untergräbt.[10]

Der Konflikt zwischen dem Pentagon und Anthropic, den Machern von Claude, eskalierte nur wenige Tage vor Kriegsbeginn.[11] Vollautonome Kampfsysteme und Massenüberwachung von US-Bürgern bildeten die offiziellen Streitpunkte. Es ist überdies gut möglich, dass dem KI-Startup dämmerte, wozu das System missbraucht werden wird, auch wenn bislang letztendlich ein Mensch am Drücker sitzt. Rein formell schlägt die KI nur die Ziele vor, die angegriffen werden sollen, ein Mensch muss (noch) auf den Knopf drücken.

Diese Formalie bildet auch das Schlupfloch, das den Einsatz von KI-Systemen zur Zielbestimmung für die Kriegsmaschine der USA ermöglicht. Vollautonome Terminatoren-Systeme nur eine Frage der Zeit. Die Designierung von Anthropic als Sicherheitsrisiko durch das Pentagon und der sofortige Abschluss von Verträgen mit OpenAI und Musks Grok illustrieren bereits, dass hier schnell die letzten Hürden fallen werden, sobald die technischen Voraussetzungen für autonome KI-Waffensysteme gegeben sind.

9578