DAS MAGAZIN

Monatlich informieren wir unsere Mitglieder mit der loyal über sicherheitspolitische Themen. Ab sofort können Mitglieder auch im Bereich Magazin die darin aufgeführten Artikel lesen!

Mehr dazu
DER VERBAND

Der Verband der Reservisten der Deutschen Bundeswehr (VdRBw) hat mehr als 115.000 Mitglieder. Wir vertreten die Reservisten in allen militärischen Angelegenheiten.

Mehr dazu
MITGLIEDSCHAFT

Werden Sie Teil einer starken Gemeinschaft

Mehr dazu

Die Reserve

Künstliche Intelligenz im Militär: Zwischen Rechnen und Verstehen




Längst Realität, doch noch lange nicht das Ende der technischen Entwicklung. Eine ferngesteuerte Drohne vom Typ MQ-1B Predator bei einem Trainingsflug in den USA.

Foto: U.S. Air Force

Die Nutzung von Künstlicher Intelligenz (KI) in den Streitkräften hat sich in den vergangenen Jahren stark weiterentwickelt. KI-Technologien werden zunehmend in der Drohnenüberwachung, in autonomen Waffensystemen, in der strategischen Planung und in der Datenanalyse eingesetzt. Diese Technologien ermöglichen es Armeen, effizienter zu agieren und schnellere Entscheidungen zu treffen. Allerdings gibt es auch Bedenken hinsichtlich der Ethik und des Missbrauchs von KI im militärischen Kontext. Es ist wichtig, dass die Entwicklung und Nutzung von KI im Militär transparent und verantwortungsbewusst erfolgt, um potenzielle Risiken zu minimieren und die Sicherheit zu gewährleisten.

Hätten Sie es geahnt? Diese Einleitung wurde mit Hilfe von ChatGPT erstellt. Das System basiert auf einem Large Language Model, also auf einem sehr leistungsfähigen Sprachmodell, das mit Hilfe von unzähligen Texten trainiert wurde. Wie sich eine solche Künstliche Intelligenz im militärischen Bereich nutzen lässt, darüber sprach bei der Digitalen Ausbildung für Reservisten (DARes) der Obergefreite und Reserveoffizieranwärter Mads Pankow. Er ist Publizist und Kommentator des digitalen Wandels. Dabei interessieren ihn Fragen von maschinellem Bewusstsein über die Automatisierung von Arbeit und Staat bis hin zu KI in Kunst und Kultur. Seit mehr als zehn Jahren hält er europaweit Vorträge zu Künstlicher Intelligenz und Gesellschaft. In der Spitze schalteten sich am Montagabend 70 Zuhörer zur DARes dazu.

Aktuelle Entwicklung

„Derzeit sehen wir bei Robotern als Gewehrträgern oder bei Kampfdrohnen, dass einzelne Fähigkeiten, wie zum Beispiel die Bilderkennung von KI gestützt werden“, beschreibt Pankow den status quo. Allerdings sitzt hier noch ein Bediener am Computer und steuert die Geräte. „In der Ukraine sehen wir gerade, wo diese Systeme störanfällig sind. Die Funkverbindung kann unterbrochen werden oder die Bediener aufgeklärt. Daher gibt es eine große Motivation, die Systeme weiter zu autonomisieren.“ Der Knackpunkt dabei: Rechnen und Denken sind zwei verschiedene Dinge. „Maschinen können nicht reflektieren, ihnen fehlt das Bewusstsein für eine Situation“, sagt Pankow. Doch vielleicht braucht es gar kein Bewusstsein, um taktische Entscheidungen zu treffen. Das zeigt sich, wenn wir ein Sprachmodell in eine Rolle schlüpfen lassen, beispielsweise in die eines S3-Offiziers (Einsatzplanung) auf einem Gefechtsstand.

Mads Pankow (l.) beantwortet eine Teilnehmerfrage. Moderiert wurde die Digitale Ausbildung von Markus Flaam (r.). (Foto: Screenshot)

Wie das geht, hat der Computerpsychologe Michal Kosinski an der renommierten Stanford University erforscht. Er untersucht die psychologischen Prozesse in großen Sprachmodellen sowie KI und Big Data, um menschliches Verhalten zu modellieren und vorherzusagen. Er vermutet, Sprachmodelle hätten ohne Absicht der Entwickler eine „Theory of Mind“ – ein „Bewusstsein von Bewusstsein“ – entwickelt. Pankow erklärt: „Sprachmodelle verstehen die Aufgaben nicht, die man ihnen gibt und sie verstehen auch die Antworten nicht. Das sieht man unter anderem daran, dass sie ihre Antworten immer nur Wort für Wort berechnen, ohne zu wissen, was das übernächste Wort ist, das Ende des Satzes oder die Pointe des Textes. Wir alle kennen die Autocomplete-Funktion auf unserem Handy. Das System berechnet dafür die wahrscheinlichste Wortkette. Es erkennt aber keine Zusammenhänge. Darum werden KI-Modelle mit Unmengen von Daten gefüttert – 70 Billionen Worte für die nächste Generation der großen Sprachmodelle! Die weltweite Wikipedia auf über 300 Sprachen mit 49 Millionen Artikeln macht dabei gerade einmal 0,03% des Datensatzes aus. Die Systeme trainieren per Versuch und Irrtum immer das nächste Wort dieser Texte richtig vorherzusagen und können so am Ende Texte schreiben, ohne sie zu verstehen – allein durch Dressur. Hier sehen wir wieder: Rechnen ist nicht Denken, auch wenn es manchmal ähnlich aussieht.“

Lernen durch Versuch und Irrtum

Dass hier nicht auf Anhieb alles rund läuft, liegt auf der Hand. Die KI-Systeme lernen zu imitieren, nicht zu verstehen. Fakten kennen sie nicht, deshalb erfinden Sie auch oft Antworten. Pankow nennt das Beispiel eines US-amerikanischen Juristen, der sich einen Antrag vor Gericht von ChatGPT hat schreiben lassen. Das las sich gut, jedoch hat es die Präzedenzfälle, auf die er sich bezog, nie gegeben. „Die KI wusste sehr wohl, wie ein solcher Antrag aussieht und hat eben jene Präzedenzfälle erfunden, die zu jedem Antrag dazugehören“, ordnet Pankow ein. Die Schlussfolgerung: Ohne Maschinelles Bewusstsein ist der Mensch unersetzbar.

Vor allem, wenn es um militärische Entscheidungen geht. „Hier bleibt der Blick ins Gelände unersetzbar.“ Pankow macht das an einem Beispiel fest. Er hat die öffentlich zugängliche ChatGPT-Version mit einer einfachen Lage gefüttert, wie sie in der Taktikausbildung angewandt wird. Innerhalb von 30 Sekunden machte das System einen Vorschlag, wie vorzugehen ist – und fragte gleich nach dem nächsten Schritt. Allerdings zeigte sich beim Erstellen der Lagekarte deutliche Schwäche – ähnlich wie beim amerikanischen Anwaltsschreiben. Das System wusste grob, wie so etwas aussieht, konnte es aber nicht korrekt umsetzen. „Aber wir sehen in der aktuellen Entwicklung, dass die KI-Systeme immer schneller lernen. Vor allem dann, wenn ich die KI auf meine Bedürfnisse zuschneide und sie in bestimmte Rollen schlüpfen lasse wie etwa einen S3“, sagt Pankow. Dennoch bleibe hier der „human in the loop“, also die menschliche Komponente unersetzbar. „Wir müssen am Ende die Entscheidung treffen, der Bataillonskommandeur muss ein Mensch bleiben. Es braucht ein Bewusstsein für die Konsequenzen einer Entscheidung, die Künstliche Intelligenz kann uns dabei nur assistieren!“


Wer mehr über KI erfahren möchte, dem sei der Podcast „Mensch, Maschine!“ von Mads Pankow ans Herz gelegt.

Verwandte Artikel
Allgemein

Bundeswehr und Reserve - Newsblog KW 29

Was berichten die Medien in dieser Woche über die Bundeswehr und ihre Reserve? Welche Themen stehen auf der sicherheitspolitischen Agenda?...

17.07.2024 Von Sören Peters
Die Reserve

Sommer-Verlosung: loyal lesen, Foto knipsen, Bildband gewinnen

Holt die weißen Socken und die Trekkingsandalen raus, der Sommer ist da! 14 von 16 Bundesländern sind ab der kommenden...

15.07.2024 Von Redaktion
Die Reserve

Traumberuf als Zivilist und Soldat

Die Uniform ändert sich, die Expertise bleibt: Beim Thema Gefahrstoffe ist Philipp N. als Hauptbrandmeister bei der Feuerwehr in Dortmund...

15.07.2024 Von Sabine Körtgen