Morning Overview

KI verändert die Kriegsführung im Nahen Osten und erschwert die Rechenschaftspflicht

Künstliche Intelligenz beschleunigt, wie Militärs im Nahen Osten Ziele identifizieren und angreifen, erzeugt eine beispiellose Menge an Bombenkoordinaten und untergräbt gleichzeitig die Rechtsrahmen, die Zivilisten schützen sollen. Israels Einsatz KI‑gesteuerter Zielerfassungssysteme im Gazastreifen hat scharfe Kritik von UN‑Vertretern hervorgerufen, die sagen, die Technologie habe zur systematischen Zerstörung ziviler Wohnhäuser in einem Ausmaß beigetragen, das sie als „domicide“ bezeichnen. Da kommerzielle Technologiefirmen die zugrunde liegenden Modelle und Cloud‑Infrastruktur liefern, ist die Frage, wer für die daraus resultierende Zerstörung verantwortlich ist, nicht klar beantwortet, und internationale Bemühungen, autonome Waffensysteme zu regulieren, sind ins Stocken geraten.

KI‑gesteuerte Zielerfassung und das Ausmaß der Zerstörung

Die Israelischen Verteidigungsstreitkräfte betreiben ein KI‑System, das als „Gospel“, auf Hebräisch Habsora, bekannt ist und dazu entwickelt wurde, Ziele in hohem Tempo zu erzeugen, wie aus einer Beschreibung in den eigenen Materialien des Militärs hervorgeht. Diese Charakterisierung, die Ende 2023 vom Guardian ausführlich dargestellt wurde, fasst die Kernspannung zusammen: Geschwindigkeit und Menge bei der Zielgenerierung können die Fähigkeit menschlicher Bediener übersteigen, jeden Schlag auf die Gesetze des bewaffneten Konflikts zu überprüfen. Das System verarbeitet große Datensätze, einschließlich Überwachungsbildern und SIGINT, um Gebäude und Orte als potenzielle militärische Ziele zu kennzeichnen.

Was dies von früheren Zielerfassungsmethoden unterscheidet, ist der Durchsatz. Traditionelle Geheimdienstanalysen erforderten Teams von Spezialisten, die Tage oder Wochen benötigten, um ein einzelnes Zielpaket zu erstellen. Gospel komprimiert diesen Zeitrahmen dramatisch und speist eine Pipeline, die weit mehr Schlagkoordinaten erzeugen kann als jeder bisherige Konflikt. Je erfolgreicher das System bei seinem technischen Ziel der schnellen Identifikation ist, desto größer wird der Druck auf die menschlichen Prüfungsphasen, die die Legalität und Verhältnismäßigkeit sicherstellen sollen.

Das Ergebnis war laut UN‑Sonderberichterstattern die massenhafte Zerstörung ziviler Infrastruktur im Gazastreifen. In einer Erklärung vom April 2024 prangerten diese Experten den Einsatz angeblicher KI zur Begehung von „domicide“ an und verwendeten den Begriff, um vorsätzliche, groß angelegte Abrisse von Wohnhäusern und Wohngebieten zu beschreiben. Sie argumentierten, dass das Muster der Angriffe auf eine systematische Zielausrichtung der gebauten Umgebung und nicht auf beiläufige Schäden rund um bestimmte militärische Ziele hindeute, und forderten einen reparativen Ansatz für den Wiederaufbau, der die Rolle aufkommender Technologien bei der Ermöglichung solcher Verwüstungen anerkennt.

Kommerzielle KI betritt das Schlachtfeld

Die Verbindung von Silicon Valley zu den Frontlinien läuft über Cloud‑Computing‑Verträge und KI‑Modelllizenzen. Die Associated Press berichtete, dass Israel in seinen Militäroperationen in den USA entwickelte KI‑Modelle einsetzt, wobei Technologie von Microsoft und OpenAI eine Rolle bei Entscheidungen auf dem Schlachtfeld spiele. Laut dieser Berichterstattung haben israelische Einheiten große Sprachmodelle und verwandte Werkzeuge zur Unterstützung von Aufgaben wie Bildanalyse, Datensortierung und Einsatzplanung verwendet und kommerzielle Systeme in militärische Arbeitsabläufe integriert.

Eine weitere Untersuchung der AP ergab, dass Microsoft während des Gaza‑Kriegs fortschrittliche KI‑ und Cloud‑Dienste an das israelische Militär verkauft habe. Das Unternehmen räumte diese Verkäufe ein, bestritt jedoch, dass seine KI zur Schädigung von Menschen im Gazastreifen eingesetzt wurde, und argumentierte, dass seine Verträge sich auf defensive und administrative Anwendungen konzentriert hätten. Das Unternehmen betonte außerdem, dass es nicht kontrolliere, wie Kunden seine universell einsetzbaren Werkzeuge konfigurieren und einsetzen, sobald der Zugang gewährt sei.

Diese Ablehnung macht ein strukturelles Verantwortlichkeitsproblem deutlich. Ein Cloud‑Anbieter kann Rechenleistung und Modellzugang verkaufen, ohne zu kontrollieren, wie der Endnutzer die Ausgaben anwendet. Microsofts Position ist im Wesentlichen, dass es Werkzeuge geliefert, deren Nutzung aber nicht gelenkt habe. Kritiker argumentieren, diese Darstellung ermögliche es Anbietern, von Militäraufträgen zu profitieren und sich zugleich von den Konsequenzen zu distanzieren, selbst wenn ihre Produkte in dieselbe digitale Infrastruktur eingebettet sind, die offensive Operationen unterstützt.

Die AP‑Berichterstattung enthielt Beispiele dafür, wie KI in den Zielauswahlprozess eintreten kann, und verdeutlicht die praktische Schwierigkeit, eine klare Trennlinie zwischen einem kommerziellen Produkt und einer tödlichen militärischen Entscheidung zu ziehen. Sobald ein universell einsetzbares Modell mit geheimen Daten feinabgestimmt und an Überwachungsfeeds angeschlossen wird, wird es Teil der Kill‑Chain, auch wenn sein ursprüngliches Marketing Produktivitäts‑ oder Forschungsunterstützung betont hat.

Die Beteiligung großer amerikanischer Technologieunternehmen verkompliziert zudem die US‑Außenpolitik. Exportkontrollen und Endverwendungsvereinbarungen regeln Übertragungen konventioneller Waffen, doch KI‑Modelle und Cloud‑Abonnements besetzen eine Grauzone. Kein bestehender Regulierungsrahmen definiert klar, wann ein universelles KI‑Werkzeug zu einer Komponente eines Waffensystems wird, und Anbieter haben wenig Anreiz, diese Klarheit von sich aus zu suchen. Das Ergebnis ist ein politischer Rückstand, in dem Unternehmen ihr Verteidigungsportfolio schneller ausbauen können, als Regierungen Aufsichtsmechanismen anpassen können.

Verschwimmende Verantwortungsgrenzen

UN‑Generalsekretär António Guterres hat diese Lücke direkt angesprochen. Bei einer Pressebegegnung zum Gaza im April 2024 äußerte er Besorgnis über Berichte über den Einsatz von KI zur Zielidentifikation und verband die Geschwindigkeit und das Ausmaß KI‑gestützter Operationen mit dem, was er als Verwischung der Verantwortlichkeit bezeichnete. Seine Äußerungen spiegeln eine wachsende Sorge unter internationalen Beamten wider: Wenn ein Algorithmus ein Ziel generiert, ein Kommandeur den Angriff genehmigt und ein Technologieunternehmen das zugrunde liegende Modell und die Infrastruktur liefert, fragmentiert die rechtliche Verantwortung auf mehrere Akteure und Jurisdiktionen.

Das humanitäre Völkerrecht weist traditionell die Verantwortung dem Kommandeur zu, der einen Angriff befiehlt, sowie dem Staat, der die Waffe einsetzt. Aber die Einführung von KI in die Kill‑Chain wirft Fragen auf, für die bestehende Doktrinen nicht ausgelegt sind. Wenn ein Algorithmus ein Wohngebäude fälschlich als militärisches Ziel identifiziert und ein menschlicher Bediener den Schlag auf Grundlage der Empfehlung des Systems ohne unabhängige Überprüfung freigibt, wo liegt dann das Verschulden? Beim Softwareentwickler, der das Modell entworfen hat, beim militärischen Beschaffungsamt, das es integriert hat, beim kommandierenden Offizier, der dem Ergebnis vertraute, oder beim Operator, der den Befehl ausführte?

Jeder Akteur kann auf eine andere Stelle in der Kette verweisen. Entwickler können argumentieren, sie hätten ein Werkzeug mit dokumentierten Einschränkungen geliefert; Militärs können behaupten, sie hätten interne Verfahren befolgt und sich auf die bestverfügbare Technologie gestützt; politische Führungskräfte können darauf bestehen, dass ihnen detaillierte Kenntnisse über einzelne Zielentscheidungen fehlten. Diese Diffusion der Verantwortung erschwert die Anwendung bestehender Mechanismen der Rechenschaft, von nationalem Strafrecht bis zu internationalen Untersuchungen.

Die meisten mainstream‑politischen Debatten behandeln dies noch als ein zukünftiges Governance‑Problem. Diese Darstellung unterschätzt die Dringlichkeit. Die Verantwortungslücke zeigt sich bereits im Gazastreifen, wo KI‑generierte Ziellisten umgesetzt wurden und ganze Wohnviertel dem Erdboden gleichgemacht wurden. Familien, deren Häuser zerstört wurden, können nicht leicht eine klare Linie von der Einschlagstelle zu einem bestimmten Programmierer, Auftragnehmer oder Kommandeur zurückverfolgen. Das Recht liegt nicht nur hinter der Technologie zurück; es ringt damit, Verantwortung auf ein sozio‑technisches System abzubilden, das darauf ausgelegt ist, verteilt und undurchsichtig zu sein.

Regulierung kommt ins Stocken, während neue Bedrohungen entstehen

Bemühungen, internationale Regeln für autonome Waffensysteme zu etablieren, haben nur geringe Fortschritte gemacht. Analysen des Lieber Institute in West Point weisen darauf hin, dass mächtige Militärmächte sich gegen bindende Regulierung solcher Systeme stellen, wodurch die Aussichten auf einen umfassenden Vertrag gering sind. Die Vereinigten Staaten, Russland und China, die in militärischer KI‑Forschung und -Einsatz führend sind, haben jeweils nicht bindende Prinzipien und technische Maßnahmen zum Vertrauensaufbau gegenüber rechtlich verbindlichen Beschränkungen bevorzugt.

Dieses regulatorische Vakuum fällt mit einer neuen und gefährlichen Entwicklung zusammen: Die physische Infrastruktur, die militärische KI antreibt, wird selbst zum Ziel. Eine Analyse des Guardian vom März 2026 berichtete, dass Rechenzentren als strategische Vermögenswerte auftreten, wobei iranische Einrichtungen als frühe Beispiele dafür genannt wurden, wie Serverfarmen und Cloud‑Hubs in regionale Konflikte hineingezogen werden können. Da diese Zentren sowohl zivile als auch militärische Arbeitslasten hosten, bergen Angriffe auf sie das Risiko kaskadierender Effekte in Finanzsystemen, Gesundheitsdiensten und Kommunikationsnetzen.

Die Konvergenz dieser Trends (KI‑gesteuerte Zielerfassung, in die Kriegsführung eingebettete kommerzielle Infrastruktur und stockende Regulierung) schafft eine Rückkopplungsschleife der Instabilität. Je mehr Militärs Cloud‑basierte KI zur Planung und Durchführung von Operationen nutzen, desto größer sind die Anreize für Gegner, die Rechenzentren, Glasfaserkabel und Satellitennetzwerke zu stören oder zu zerstören, die solche Fähigkeiten möglich machen. Zivilbevölkerungen sind dann zweifach exponiert: zuerst gegenüber KI‑gestützten Bombenkampagnen und zweitens gegenüber Angriffen auf die digitalen Versorgungsinfrastrukturen, die das moderne Leben stützen.

Diese Spirale zu durchbrechen wird mehr erfordern als freiwillige Ethik‑Bekundungen von Tech‑Firmen oder schrittweise Aktualisierungen militärischer Doktrin. Es werden neue rechtliche Instrumente nötig sein, die KI‑Systeme und die Infrastruktur, die sie stützt, als integrale Bestandteile des Schlachtfelds behandeln und spezifischen Pflichten und Beschränkungen unterwerfen. Es wird auch größere Transparenz von Staaten und Konzernen darüber erfordern, wie diese Werkzeuge entwickelt, getestet und eingesetzt werden, damit Verantwortlichkeit nicht in den Lücken zwischen Code, Verträgen und Befehlsketten verschwindet.

Vorerst steht Gaza als eindrückliche Fallstudie dafür, wie schnell KI die Zerstörungskraft konventioneller Streitkräfte verstärken kann, während die Institutionen, die sie einschränken sollen, ins Hintertreffen geraten. Dieselben Technologien, die theoretisch Effizienz und Präzision versprechen, haben in der Praxis eine Dimension urbaner Verwüstung ermöglicht, die UN‑Experten als „domicide“ beschreiben. Wenn Recht und Politik nicht aufholen, könnte das dort beobachtete Muster zu einer Vorlage für künftige Konflikte werden, in der Verantwortung überall und nirgends liegt und die fortschrittlichsten Nachrichtensysteme mit einigen der schwächsten Verantwortungsmechanismen gepaart sind.

Alexander Clark

Alexander Clark is a tech writer who thrives on exploring the latest innovations and industry trends. As a contributor to Morning Overview, he covers everything from emerging technologies to the impact of digital transformation on everyday life. With a passion for making complex topics accessible, Alexander delivers insightful analysis that keeps readers informed and engaged. When he's not writing about the future of technology, he enjoys testing new gadgets and experimenting with smart home tech.