Autonome Waffensysteme: Kriegsführung ohne Verantwortung?
Autonome Waffensysteme waren lange Science Fiction, nun sind sie in der Goldgräberstimmung des KI-Hypes in den Fokus einer neuen Kriegsführung geraten. Software ist nunmehr der volatile Treiber militärischer Entwicklung, Hardware dient in der neuen Realität vor allem als Plattform, die immer öfter auch auf dem zivilen Markt beschafft werden kann. Dabei werden die Möglichkeiten immer größer und mit ihnen auch die Probleme.
Gerade im Kontext des Aufstiegs von Künstlicher Intelligenz sind autonome Waffensysteme in den letzten Jahren ein wichtiger Aspekt der Kriegsführung geworden. Dabei ergeben sich nicht nur Fragestellungen, wie diese taktisch eingesetzt werden können und welche neuen Möglichkeiten sie in der militärischen Praxis bieten, sondern auch normative Fragen wie sie eingesetzt werden sollten oder eben nicht. Seit dem ersten großflächigen Einsatz von autonomen Drohnen, in diesem Fall sogenannte Loitering Munition, im Bergkarabach-Konflikt im Jahr 2020 beschäftigen sich Armeen und Wissenschaftler auf der ganzen Welt nochmals verstärkt mit den technologischen Entwicklungen und sicherheitspolitischen, ethischen und rechtlichen Fragen, die sich aus ihrer Nutzung ergeben. Neuere Einsätze von KI, integriert in der Kill-Chain der israelischen Verteidigungsstreitkräfte im aktuellen Gaza-Konflikt oder in ukrainischen Drohnen, eröffnen dabei wieder neue Problematiken. Hier vermischen sich zwei entstehende disruptive Technologien, Künstliche Intelligenz und autonome Systeme, die zu wesentlichen Umwälzungen führen können und gerade ihre Kombination gibt der Thematik eine neue Richtung.
Drohnen in Kampfeinsätzen
Einer der ersten Einsätze einer autonomen Drohne war 2021 in Libyen. Die Loitering Munition des Typs Kargu-2 vom türkischen Herstellers STM hat laut den Vereinten Nationen einen Konvoi angegriffen. Der erste Kampfeinsatz im Schwarmverbund fand vermutlich bei einer Operation im Gazastreifen Mitte Mai 2020 statt. Dort setzte die israelische Armee eine Formation kleiner Drohnen ein, um Kämpfer der Hamas zu lokalisieren, zu identifizieren und anzugreifen. Diese Systeme bieten vielfache Vorteile. Sie bringen militärische Überlegenheit durch höhere Geschwindigkeit, bessere Datenauswertung und Übersicht und sind dem Menschen oft überlegen. Auch schützen sie die eigenen Streitkräfte, da sie den Menschen im direkten Feindkontakt ersetzen. Schnellere Zielerkennung, Navigation unabhängig von externen Systemen wie GPS/Galileo und das Agieren im Schwarm sind nur einige praktische Anwendungsszenarien. Ganz abgesehen von den unendlichen Kombinationsmöglichkeiten innerhalb einer netzwerkzentrierten Kriegsführung.
Die schiere Masse und Geschwindigkeit an identifizierten Zielen sind dabei angst- und besorgniserregend. Die maschinelle Effizienz und die wahrgenommene Entmenschlichung bieten immer wieder Anstoßpunkte in der technischen Weiterentwicklung militärischer Möglichkeiten. Auch die aktuelle Forschung zu „Large Language Models“ (LLMs), wie beispielsweise ChatGPT, für die Anwendung in Armeen sind beunruhigend. Erste Studien zeigen eine erhöhte Aggressivität und Eskalationsbereitschaft der Sprachmodelle, wenn sie zu militärischen Entscheidungen befragt werden. Daher überrascht es wenig, dass es nicht nur Bedenken, sondern aktiven Protest gegen den Einsatz solcher Systeme gibt. Die bekannteste Kampagne auf dem internationalen Parkett ist „Stop Killer Robots“, die sich seit 2013 als Zusammenschluss verschiedener NGOs und Einzelpersonen für eine Beschränkung und ein Verbot von autonomen Waffensystemen einsetzt. Doch die Vorteile überwiegen und so scheint ein Verbot nicht nur unwahrscheinlich, sondern auch schwer durchsetzbar. Zu einfach wird der Zugang zu entsprechender Technik auf dem zivilen Markt.
Was sind autonome Waffensysteme?
Eine allgemeingültige Definition, was autonome Waffensysteme sind, existiert (noch) nicht. Etabliert hat sich der englische Begriff „Lethal Autonomous Weapons Systems“ (LAWS), auf deutsch „tödliche autonome Waffen“. Einige Fachleute sprechen bei LAWS von Waffensystemen, andere betrachten sie als Fähigkeitskategorie. Verschiedene Staaten und Akteure diskutieren im Rahmen einer Einordnung auf UN-Ebene bis heute darüber. Es haben sich jedoch zwei Erklärungen etabliert, die erste aus dem militärischen, die zweite aus dem zivilen Bereich.
Im militärischen Bereich haben die USA in der Directive 3000.09 des Verteidigungsministeriums LAWS kodifiziert. Seit ihrer Inkraftsetzung 2021 ist sie normgebend und eine Orientierung für viele andere Akteure. Demnach handelt es sich bei LAWS um „ein Waffensystem, das, sobald es aktiviert ist, Ziele auswählen und bekämpfen kann, ohne dass ein menschlicher Bediener eingreifen muss.“ Das Internationale Komitee des Roten Kreuzes (ICRC) folgt einer ähnlichen Definition und sieht LAWS als jedes „Waffensystem, das in seinen kritischen Funktionen autonom ist. Das heißt, ein Waffensystem, das ohne menschliches Eingreifen Ziele auswählen (d. h. suchen oder aufspüren, identifizieren, verfolgen, auswählen) und angreifen (d. h. Gewalt gegen sie anwenden, sie neutralisieren, beschädigen oder zerstören) kann.“ Ein System ist folglich dann autonom, wenn es ohne menschliches Zutun Ziele erkennen, identifizieren, verfolgen, auswählen und angreifen kann. Es durchläuft die Kill-Chain eigenständig. Inwieweit es dies tut, ist dabei umstritten. Es gibt jedoch graduelle Abstufungen, die für eine weitere moralische und juristische Einordnung notwendig sind.

Bei Autonomie spricht man von der Selbstständigkeit, wie (un-)abhängig ein LAWS vom Menschen funktioniert und agiert. Für eine Einordnung ist daher wesentlich, in welcher Interaktion das jeweilige System und der Mensch stehen. Wie eigenständig das System dann handelt, lässt sich in drei Kategorien einteilen, die die Relation von Mensch und Maschine beschreiben. In der ersten Kategorie befindet sich der Mensch im Entscheidungskreislauf (human in the loop). Jedes Engagement muss von einem Menschen erlaubt werden. Diese Systeme werden auch als halb- oder semiautonom bezeichnet, da sie nicht völlig eigenständig sind. Der Mensch ist zwingender Teil des Entscheidungsvorganges. Bei der zweiten Kategorie ist der Mensch Teil des Entscheidungskreislaufs (human on the loop). Hier handelt das System eigenständig, ein Mensch kann aber jederzeit eingreifen und das System überschreiben. Er ist somit nicht mehr zwingender Teil des Vorgangs und hat lediglich eine überwachende Funktion. In der dritten Kategorie befindet sich der Mensch außerhalb des Entscheidungskreislaufs (human out of the loop). Nach der Aktivierung des Systems ist es dem Menschen nicht mehr möglich einzugreifen, man sprich auch von „fire and forget“. Er ist also außerhalb des Entscheidungsvorganges und nicht mehr in der Lage diesen zu beeinflussen oder abzubrechen.
Warum sind LAWS problematisch?
Autonome Waffen lösen in unserer Vorstellung bestimmte Ängste aus, wie der Kampagnenkurzfilm „Slaughterbots“ veranschaulicht. LAWS kommen uns als inhuman und überlegen vor – nicht ganz unberechtigte Gefühle, die man ernst nehmen sollte. Darüber hinaus existieren noch weitere Problemfelder. So können autonome Waffen mit gegnerischen Systemen auf unerwartete Weise interagieren, sei es aufgrund ihrer Trainingsdaten oder durch Umweltstimuli. Dadurch können unbeabsichtigte Eskalationen entstehen, in die der Mensch nicht (out of the loop) oder nicht rechtzeitig (on the loop) eingreifen kann. Im Science-Fiction-Film „Dr. Seltsam, oder wie ich lernte, die Bombe zu lieben“ wird dieses Potenzial anhand einer automatisierten Weltvernichtungsmaschine besonders deutlich.
Die niedrigen Herstellungskosten, die Verfügbarkeit vor allem softwaredefinierter Waffen und damit der Einkaufsmöglichkeiten von Trägersystemen auf dem zivilen Markt führen zu einer Proliferation weit über staatliche Akteure hinaus. Dies ermöglicht es auch nicht-staatlichen Akteuren LAWS völker- und menschenrechtswidrig einzusetzen, beispielsweise für Völkermorde oder politisch motivierte Attentate. Die oftmals hochgradig vernetzten Systeme sind auch besonders anfällig für Cyberangriffe und bieten Hackern die Möglichkeit militärische Aktivitäten zu stören, zu kapern und die LAWS zu missbrauchen.
Auch die ethischen Bedenken müssen berücksichtigt werden. Wichtige gesellschaftliche Multiplikatoren, darunter der Papst, argumentieren, dass Maschinen prinzipiell keine Entscheidungen über Leben und Tod treffen dürfen. Auch bei Umfragen lehnen große Mehrheiten in westlichen Ländern LAWS als unethisch ab. Die gravierendste ethische und rechtliche Frage ist jedoch die sogenannte Verantwortungslücke.
Verantwortungslücke beim Einsatz von LAWS
Das größte Problem beim Einsatz von LAWS ist die Zuordnung von Verantwortlichkeiten. Handelt ein System ausschließlich autonom, ist nicht klar, wer die Verantwortung für Fehler übernimmt. Eine Maschine kann man schwerlich sanktionieren. Ob sie verurteilt und anderweitig bestraft wird, ist ihr egal. Es braucht also einen Menschen, der verantwortlich ist oder Verantwortung übernimmt und der für Handlungen, die er ausführt, anweist oder nicht verhindert geradesteht.
Die Person, welche den Einsatz befiehlt, wäre eine mögliche Verantwortliche. Aber auch ihr ist nicht ganz bewusst, wie das System handeln wird. Die Programmierer haben zwar mehr Wissen wie das System handeln wird, können aber nicht über ihren konkreten Einsatz entscheiden. Gerade bei KI lässt sich auch durch die Schöpfer nicht sagen wie das System handeln wird. KI bleibt zu großen Teilen eine Blackbox, deren genaue Entscheidungsfindung weder nachvollziehbar noch sichtbar ist. Man könnte noch das System selbst zur Verantwortung ziehen, einen unbelebten Gegenstand kann man jedoch kaum sinnvoll sanktionieren. Auch wenn es Debatten über das Bewusstsein von KI gibt, hat sie es zum momentanen Zeitpunkt noch nicht. Der KI fehlt die Möglichkeit Gefühle zu empfinden, was ein wesentlicher Teil des Erlebens der eigenen Umwelt ist. Auch Lernen durch klassische Sanktionen funktioniert bei LAWS nicht.
Das Töten oder Verletzen von Menschen, aber auch die Zerstörung von Gegenständen ist, nicht nur juristisch relevant, sondern auch moralisch. Eine Verantwortungsdiffusion oder -losigkeit führt dazu, dass Entscheidungen mit deutlich mehr Gewaltauswirkung getroffen werden. Ob und wie man diese Verantwortungslücke schließt, ist nicht klar. Es gibt einige Ansätze, diese sind aber bisher eher rudimentär.
LAWS im Völkerrecht
Vor dem Hintergrund des KI-Hypes positionieren sich die UN zunehmend als Normgeber. Aktivitäten in dem Bereich befassen sich nicht ausschließlich mit Waffensystemen, schließen diese aber stärker mit ein. Diese Reaktion auf die Proliferation von KI ist jedoch in Bezug auf Waffensysteme nur ein kleiner Schritt. Autonome Fähigkeiten oder gar KI in Waffen werfen völlig andere Probleme und Fragen auf. Verschiedene Initiativen fordern schon länger den Einsatz von LAWS zu beschränken und sie in das Recht im Krieg einzuhegen. Im Diskursraum der UN wird das jedoch bisher ohne einen konkreten Erfolg verhandelt.

Der erste Bericht über LAWS wurde 2013 von Christof Heyns (Sonderberichterstatter zu extralegalen, summarischen und willkürlichen Hinrichtungen) im UN-Menschenrechtsrat eingebracht. Ab 2014 fanden Gespräche und erste Einbindungen in das Gerüst der Konvention über bestimmte konventionelle Waffen statt, die jedoch bis heute noch keine direkte Umsetzung erfahren haben. Selbst nachdem im Oktober 2023 der UN-Generalsekretär und ICRC-Präsident gemeinsam die Mitgliedstaaten aufriefen, bis 2026 ein rechtlich bindendes Abkommen zu beschließen, hat sich außer loseren Gesprächen und Zusagen nicht viel bewegt.
Dabei ist die Meinung der Mitgliedstaaten quantitativ sehr eindeutig: 119 befürworten Verhandlungen über ein konkretes Instrumentarium, 59 enthalten sich und nur zehn Staaten stehen dem oppositionell gegenüber. Vor allem kleinere Länder unterstützen eine Begrenzung von LAWS. Auch Deutschland hat sich noch unter der Ampel-Regierung für eine Beschränkung ausgesprochen. Wie sich die nächste Bundesregierung positionieren wird, ist offen. Aufgrund der politischen Kultur in Deutschland spricht vieles für ein Beibehalten des Kurses. Gegen eine Beschränkung sind aber wichtige Mitgliedstaaten, die zum Teil auch als ständige Mitglieder im UN-Sicherheitsrat sitzen wie Indien, Israel, Russland und die USA. Als Industriestaaten mit einer großen Verteidigungsindustrie und Zugriff auf die neuesten technischen Entwicklungen, auch im Bereich Halbleiter, haben sie eine technische Überlegenheit. Folglich haben sie auch Interesse diese zugleich militärische Überlegenheit zu halten und sich nicht selbst zu beschränken. Dies führt zu einer Verlangsamung der Verhandlungen und gerade unter der aktuellen geopolitischen Großwetterlage scheinen Verträge im Rahmen des Kriegsvölkerrechtes eher unwahrscheinlich. So werden LAWS im Russland-Ukraine-Krieg von beiden Parteien eingesetzt und die Ukraine dient als „Versuchsgelände“ für neue Systeme. Langfristig scheint daher ein zweistufiger Vertrag zu LAWS am wahrscheinlichsten. An erster Stelle könnte ein Verbot rechtlich oder ethisch inakzeptabler Systeme, die ohne sinnvolle menschliche Kontrolle agieren oder auf Menschen abzielen, stehen. Anschließend könnten alle anderen Systeme mit zeitlichen, räumlichen und geografischen Grenzen reguliert und ihre Nutzung streng eingehegt werden.
Ausblick
Die fortschreitende Proliferation von KI ermöglicht es, mehr Akteure mit autonomen Waffensystemen auszustatten. Dies wirft zunehmend rechtliche und ethische Fragen auf. Es fehlen internationale Beschränkungen, um ihren Einsatz zu regulieren oder bestimmte Systeme zu verbieten. Ein vollständiges Verbot ist zwar unwahrscheinlich, aber erste Ansätze und Vorschläge sprechen klar für eine Beschränkung, die sich an vorhandenen Normen orientiert oder in diese implementiert werden kann. Es liegt nun vielmehr an den Mitgliedern des UN-Sicherheitsrates eine gemeinsame Position zu finden. Vor dem Hintergrund der aktuellen geopolitischen Lage und den autoritären Angriffen auf das System der UN ist das unwahrscheinlich. Es ist vorerst also mit einer weiteren ungehinderten Anwendung von LAWS zu rechnen. Ein zeitnaher Fortschritt in der Beschränkung autonomer Waffensysteme könnte erst durch einen Vorfall stattfinden, der alle Akteure in Handlungszwang bringt. Zu wünschen ist das jedoch nicht.
Autor:
Johannes Bogatz hat Philosophie und Politikwissenschaften studiert. Aktuell ist er im Bereich des non-financial risk management in einer Bank tätig.
Literaturtipps:
- Holzki, Larissa (2024): KI in Waffensystemen: Der Mensch am Abzug steht plötzlich zur Debatte, Handelsblatt.
- International Committee of the Red Cross (2022): What you need to know about autonomous weapons.
- North Atlantic Treaty Organization (2024): Emerging disruptive technologies in defence.
- Rapp, Andreas (2024): Die Saluschnyj-Doktrin: Lehren aus der ukrainischen Offensive 2023 und die Zukunft der Drohnenkriegsführung, German Institute for Defence and Strategic Studies.
- Wieneke, Sophie-Claire (2024): Killer-Roboter? Die Bedeutung von Künstlicher Intelligenz im militärischen Einsatz, National Geographic.