Am 28. Februar 2026, am ersten Morgen der Operation „Epic Fury“, griffen US-Streitkräfte die Shajareh-Tayyebeh-Grundschule in Minab im Süden Irans mindestens zweimal während des Unterrichts an. Nach den vorliegenden Angaben starben zwischen 175 und 180 Menschen, die meisten von ihnen Mädchen zwischen sieben und zwölf Jahren. Wie konnte das passieren? Das Grundproblem ist ein militärisches System, das Zielauswahl, Vorbereitung und Angriff stark beschleunigt. Das Bombardement der Grundschule in Minab steht damit für ein Problem, das tiefer reicht als die übliche Debatte über KI.
Kevin Baker ist promovierter Historiker, Autor und Redakteur, der sich mit der Geschichte von Computern und künstlicher Intelligenz im öffentlichen Leben auseinandersetzt. Auf seinem Blog „Artificial Bureaucracy“ beschäftigt er sich mit genau diesen Themen. Dort hat er in einem Text den US-Luftangriff auf die iranische Grundschule im Februar 2026 kommentiert – unter dem Aspekt, wie die Militärsoftware Palantir aktuell arbeitet und was das für Folgen hat. Eine Zusammenfassung seines Artikels hat er auch im Guardian veröffentlicht. Das hier ist eine Zusammenfassung seiner wichtigsten Aspekte von Seiten unserer Redaktion.
Maven lässt im Iran-Krieg Menschen kaum Spielraum, Entscheidungen zu korrigieren
Operation Epic Fury ist der Name der gemeinsamen Militäraktion, die die USA und Israel am 28. Februar 2026 gegen das iranische Regime begonnen haben. Sie zielt offiziell darauf ab, die iranischen Sicherheitsapparate, Raketenproduktionskapazitäten, die Marine zu zerstören.
Für die Zielerfassung in der Operation „Epic Fury“ kam ein System namens Maven zum Einsatz. Dieses Projekt war schon 2018 umstritten. Es nutzt künstliche Intelligenz, um militärische Daten schneller auszuwerten. Es sammelt Informationen aus Drohnen, Satelliten und anderen Sensoren und hilft dabei, mögliche Ziele zu erkennen. Die Ergebnisse werden Menschen angezeigt, die dann über weitere Schritte entscheiden.
Nachdem Google aus dem Projekt Maven ausgestiegen war, übernahm es Palantir im Jahr 2019. Palantir baute es in den folgenden Jahren zu einer umfassenden Infrastruktur für militärische Zielprozesse aus.
Maven führt Satellitenbilder, Signale aus der Aufklärung und Sensordaten in einer gemeinsamen Oberfläche zusammen. Aus einzelnen Hinweisen werden dort „Zielpakete“. Diese wandern dann durch mehrere Verfahrensschritte bis zur Freigabe eines Angriffs.
Das System erkennt Objekte, bewertet die Wahrscheinlichkeit der Zuordnung und empfiehlt sogar, mit welchem Flugzeug, welcher Drohne oder welcher Waffe man ein Ziel angreifen soll. Menschen bleiben formal beteiligt. Kevin Baker kritisiert aber, dass das alles in einer Geschwindigkeit erfolgt, in der der Mensch nur noch wenig Handlungsspielraum – und Korrekturmöglichkeit – hat.
Dass eine Grundschule angegriffen wurde, war ein klarer Fehler. Der lag wohl in einer Datenbank des Defense Intelligence Agency. Das Gebäude war in dieser Datenbank noch als militärische Einrichtung verzeichnet, obwohl es Keven Baker zufolge spätestens seit 2016 von einem benachbarten Gelände der Revolutionsgarden getrennt und in eine Schule umgewandelt worden war.
Das Problem: Menschen haben diese Datenbank nicht aktualisiert. Das genutzte KI-System wiederum hat diese Unterlassung in einen tödlichen Fehler umgewandelt.
Geschwindigkeit der Palantir-KI lässt keine Zeit für Abwägung und Re-Check
Die Entwicklung von Maven stellt Baker in einem größeren strategischen Zusammenhang. Schon 2014 hatte das Pentagon auf eine Neuordnung militärischer Abläufe gesetzt. Entscheidend war dabei nicht eine einzelne, konkrete Technologie, sondern die Idee, Entscheidungen schneller zu treffen als gegnerische Staaten. Tempo wurde zum militärischen Vorteil.
Ab 2020 testete das US-Militär das System in der Übung „Scarlet Dragon“. Dort sollte es gelingen, mit kleinen Teams jene Zielarbeit zu leisten, für die zuvor Tausende Personen nötig waren. Als Zielgröße galt schließlich, 1.000 Zielentscheidungen pro Stunde zu ermöglichen. Nach dieser Logik hat man verbrauchte Zeit als Hindernis gesehen. Verzögerung erscheint dann nicht als Sicherheitsreserve, sondern als Schwäche.
Genau darin sieht Baker das Kernproblem. Frühere Systeme ließen mehr Raum für Zweifel, Widerspruch und Nachprüfung. Mit Maven hat man diese Reibung in Arbeitsoberflächen, Spalten und standardisierte Abläufe übersetzt. Statt Abwägung gibt es automatisierte Prozesse. Für Baker ist das Bürokratie in Softwareform.
Automatisierung führte schon im Irakkrieg zu Fehlern
Es ist nicht das erste Mal, das diese „Technisierung“ zu Fehlern bei Militär-Einsätzen führt. Im Irakkrieg 2003 wurden 50 Angriffe auf hochrangige irakische Ziele empfohlen. Die Bomben trafen zwar präzise, aber keines der eigentlichen Ziele wurde getötet.
Ein weiteres Beispiel liefert eine Studie von John Fyfe zum Irakkrieg. Demnach wirkten britische Offiziere mit vorsichtigerem Vorgehen im Combined Air Operations Center bremsend auf das Tempo der Einsätze. Gerade diese langsameren Phasen halfen offenbar, Fehler und Kollateralschäden zu vermeiden. Was in einer Logik der Effizienz als Verzögerung galt, war in der Praxis oft die letzte Gelegenheit zur Korrektur.
Entschleunigung statt KI notwendig? Ohne Menschen fehlt Korrekturschleife
Kevin Baker geht es nicht darum, dass wir bloß über richtige und falsche KI oder einen Softwarefehler diskutieren. Stattdessen müsste die kritische Debatte größer ansetzen und fragen, wie weit wir den Menschen bei solchen militärischen – und tödlichen – Entscheidungen außen vor lassen wollen. Denn mehr Technisierung und Automatisierung bedeutet nicht Fehlerfreiheit, sondern höchstens mehr Tempo.
Wenn ein System 1.000 Entscheidungen pro Stunde automatisiert trifft, sind das 3,6 Entscheidungen pro Sekunde. Kein menschliches Gehirn kann das nachprüfen, reflektieren oder korrigieren. Und weil die Fehlerquote nicht bei 0 liegen kann, werden Angriffe wie jene auf Kinder in einer Grundschule nicht die letzten sein, über die man erfahren und schockiert sein wird.

































