DAS MA­GA­ZIN

Mo­nat­lich in­for­mie­ren wir un­se­re Mit­glie­der mit der loyal über si­cher­heits­po­li­ti­sche The­men. Ab so­fort kön­nen Mit­glie­der auch im Be­reich Ma­ga­zin die darin auf­ge­führ­ten Ar­ti­kel lesen!

Mehr dazu
DER VER­BAND

Der Ver­band der Re­ser­vis­ten der Deut­schen Bun­des­wehr (VdRBw) hat mehr als 115.000 Mit­glie­der. Wir ver­tre­ten die Re­ser­vis­ten in allen mi­li­tä­ri­schen An­ge­le­gen­hei­ten.

Mehr dazu
MIT­GLIED­SCHAFT

Wer­den Sie Teil einer star­ken Ge­mein­schaft

Mehr dazu

Die Re­ser­ve

Künst­li­che In­tel­li­genz im Mi­li­tär: Zwi­schen Rech­nen und Ver­ste­hen




Längst Rea­li­tät, doch noch lange nicht das Ende der tech­ni­schen Ent­wick­lung. Eine fern­ge­steu­er­te Droh­ne vom Typ MQ-1B Pre­da­tor bei einem Trai­nings­flug in den USA.

Foto: U.S. Air Force

Die Nut­zung von Künst­li­cher In­tel­li­genz (KI) in den Streit­kräf­ten hat sich in den ver­gan­ge­nen Jah­ren stark wei­ter­ent­wi­ckelt. KI-Tech­no­lo­gi­en wer­den zu­neh­mend in der Droh­nen­über­wa­chung, in au­to­no­men Waf­fen­sys­te­men, in der stra­te­gi­schen Pla­nung und in der Da­ten­ana­ly­se ein­ge­setzt. Diese Tech­no­lo­gi­en er­mög­li­chen es Ar­me­en, ef­fi­zi­en­ter zu agie­ren und schnel­le­re Ent­schei­dun­gen zu tref­fen. Al­ler­dings gibt es auch Be­den­ken hin­sicht­lich der Ethik und des Miss­brauchs von KI im mi­li­tä­ri­schen Kon­text. Es ist wich­tig, dass die Ent­wick­lung und Nut­zung von KI im Mi­li­tär trans­pa­rent und ver­ant­wor­tungs­be­wusst er­folgt, um po­ten­zi­el­le Ri­si­ken zu mi­ni­mie­ren und die Si­cher­heit zu ge­währ­leis­ten.

Hät­ten Sie es ge­ahnt? Diese Ein­lei­tung wurde mit Hilfe von ChatGPT er­stellt. Das Sys­tem ba­siert auf einem Large Lan­guage Model, also auf einem sehr leis­tungs­fä­hi­gen Sprach­mo­dell, das mit Hilfe von un­zäh­li­gen Tex­ten trai­niert wurde. Wie sich eine sol­che Künst­li­che In­tel­li­genz im mi­li­tä­ri­schen Be­reich nut­zen lässt, dar­über sprach bei der Di­gi­ta­len Aus­bil­dung für Re­ser­vis­ten (DARes) der Ober­ge­frei­te und Re­ser­ve­of­fi­zier­an­wär­ter Mads Pan­kow. Er ist Pu­bli­zist und Kom­men­ta­tor des di­gi­ta­len Wan­dels. Dabei in­ter­es­sie­ren ihn Fra­gen von ma­schi­nel­lem Be­wusst­sein über die Au­to­ma­ti­sie­rung von Ar­beit und Staat bis hin zu KI in Kunst und Kul­tur. Seit mehr als zehn Jah­ren hält er eu­ro­pa­weit Vor­trä­ge zu Künst­li­cher In­tel­li­genz und Ge­sell­schaft. In der Spit­ze schal­te­ten sich am Mon­tag­abend 70 Zu­hö­rer zur DARes dazu.

Ak­tu­el­le Ent­wick­lung

„Der­zeit sehen wir bei Ro­bo­tern als Ge­wehr­trä­gern oder bei Kampf­droh­nen, dass ein­zel­ne Fä­hig­kei­ten, wie zum Bei­spiel die Bil­d­er­ken­nung von KI ge­stützt wer­den“, be­schreibt Pan­kow den sta­tus quo. Al­ler­dings sitzt hier noch ein Be­die­ner am Com­pu­ter und steu­ert die Ge­rä­te. „In der Ukrai­ne sehen wir ge­ra­de, wo diese Sys­te­me stör­an­fäl­lig sind. Die Funk­ver­bin­dung kann un­ter­bro­chen wer­den oder die Be­die­ner auf­ge­klärt. Daher gibt es eine große Mo­ti­va­ti­on, die Sys­te­me wei­ter zu au­to­no­mi­sie­ren.“ Der Knack­punkt dabei: Rech­nen und Den­ken sind zwei ver­schie­de­ne Dinge. „Ma­schi­nen kön­nen nicht re­flek­tie­ren, ihnen fehlt das Be­wusst­sein für eine Si­tua­ti­on“, sagt Pan­kow. Doch viel­leicht braucht es gar kein Be­wusst­sein, um tak­ti­sche Ent­schei­dun­gen zu tref­fen. Das zeigt sich, wenn wir ein Sprach­mo­dell in eine Rolle schlüp­fen las­sen, bei­spiels­wei­se in die eines S3-Of­fi­ziers (Ein­satz­pla­nung) auf einem Ge­fechts­stand.

Mads Pan­kow (l.) be­ant­wor­tet eine Teil­neh­mer­fra­ge. Mo­de­riert wurde die Di­gi­ta­le Aus­bil­dung von Mar­kus Flaam (r.). (Foto: Screen­shot)

Wie das geht, hat der Com­pu­ter­psy­cho­lo­ge Michal Kos­in­ski an der re­nom­mier­ten Stan­ford Uni­ver­si­ty er­forscht. Er un­ter­sucht die psy­cho­lo­gi­schen Pro­zes­se in gro­ßen Sprach­mo­del­len sowie KI und Big Data, um mensch­li­ches Ver­hal­ten zu mo­del­lie­ren und vor­her­zu­sa­gen. Er ver­mu­tet, Sprach­mo­del­le hät­ten ohne Ab­sicht der Ent­wick­ler eine „Theo­ry of Mind“ – ein „Be­wusst­sein von Be­wusst­sein“ – ent­wi­ckelt. Pan­kow er­klärt: „Sprach­mo­del­le ver­ste­hen die Auf­ga­ben nicht, die man ihnen gibt und sie ver­ste­hen auch die Ant­wor­ten nicht. Das sieht man unter an­de­rem daran, dass sie ihre Ant­wor­ten immer nur Wort für Wort be­rech­nen, ohne zu wis­sen, was das über­nächs­te Wort ist, das Ende des Sat­zes oder die Poin­te des Tex­tes. Wir alle ken­nen die Au­to­com­ple­te-Funk­ti­on auf un­se­rem Handy. Das Sys­tem be­rech­net dafür die wahr­schein­lichs­te Wort­ket­te. Es er­kennt aber keine Zu­sam­men­hän­ge. Darum wer­den KI-Mo­del­le mit Un­men­gen von Daten ge­füt­tert – 70 Bil­lio­nen Worte für die nächs­te Ge­ne­ra­ti­on der gro­ßen Sprach­mo­del­le! Die welt­wei­te Wi­ki­pe­dia auf über 300 Spra­chen mit 49 Mil­lio­nen Ar­ti­keln macht dabei ge­ra­de ein­mal 0,03% des Da­ten­sat­zes aus. Die Sys­te­me trai­nie­ren per Ver­such und Irr­tum immer das nächs­te Wort die­ser Texte rich­tig vor­her­zu­sa­gen und kön­nen so am Ende Texte schrei­ben, ohne sie zu ver­ste­hen – al­lein durch Dres­sur. Hier sehen wir wie­der: Rech­nen ist nicht Den­ken, auch wenn es manch­mal ähn­lich aus­sieht.“

Ler­nen durch Ver­such und Irr­tum

Dass hier nicht auf An­hieb alles rund läuft, liegt auf der Hand. Die KI-Sys­te­me ler­nen zu imi­tie­ren, nicht zu ver­ste­hen. Fak­ten ken­nen sie nicht, des­halb er­fin­den Sie auch oft Ant­wor­ten. Pan­kow nennt das Bei­spiel eines US-ame­ri­ka­ni­schen Ju­ris­ten, der sich einen An­trag vor Ge­richt von ChatGPT hat schrei­ben las­sen. Das las sich gut, je­doch hat es die Prä­ze­denz­fäl­le, auf die er sich bezog, nie ge­ge­ben. „Die KI wuss­te sehr wohl, wie ein sol­cher An­trag aus­sieht und hat eben jene Prä­ze­denz­fäl­le er­fun­den, die zu jedem An­trag da­zu­ge­hö­ren“, ord­net Pan­kow ein. Die Schluss­fol­ge­rung: Ohne Ma­schi­nel­les Be­wusst­sein ist der Mensch un­er­setz­bar.

Vor allem, wenn es um mi­li­tä­ri­sche Ent­schei­dun­gen geht. „Hier bleibt der Blick ins Ge­län­de un­er­setz­bar.“ Pan­kow macht das an einem Bei­spiel fest. Er hat die öf­fent­lich zu­gäng­li­che ChatGPT-Ver­si­on mit einer ein­fa­chen Lage ge­füt­tert, wie sie in der Tak­tik­aus­bil­dung an­ge­wandt wird. In­ner­halb von 30 Se­kun­den mach­te das Sys­tem einen Vor­schlag, wie vor­zu­ge­hen ist – und frag­te gleich nach dem nächs­ten Schritt. Al­ler­dings zeig­te sich beim Er­stel­len der La­ge­kar­te deut­li­che Schwä­che – ähn­lich wie beim ame­ri­ka­ni­schen An­walts­schrei­ben. Das Sys­tem wuss­te grob, wie so etwas aus­sieht, konn­te es aber nicht kor­rekt um­set­zen. „Aber wir sehen in der ak­tu­el­len Ent­wick­lung, dass die KI-Sys­te­me immer schnel­ler ler­nen. Vor allem dann, wenn ich die KI auf meine Be­dürf­nis­se zu­schnei­de und sie in be­stimm­te Rol­len schlüp­fen lasse wie etwa einen S3“, sagt Pan­kow. Den­noch blei­be hier der „human in the loop“, also die mensch­li­che Kom­po­nen­te un­er­setz­bar. „Wir müs­sen am Ende die Ent­schei­dung tref­fen, der Ba­tail­lons­kom­man­deur muss ein Mensch blei­ben. Es braucht ein Be­wusst­sein für die Kon­se­quen­zen einer Ent­schei­dung, die Künst­li­che In­tel­li­genz kann uns dabei nur as­sis­tie­ren!“


Wer mehr über KI er­fah­ren möch­te, dem sei der Pod­cast „Mensch, Ma­schi­ne!“ von Mads Pan­kow ans Herz ge­legt.

Ver­wand­te Ar­ti­kel
All­ge­mein

Bun­des­wehr und Re­ser­ve - News­blog KW 15

Was be­rich­ten die Me­di­en in die­ser Woche über die Bun­des­wehr und ihre Re­ser­ve? Wel­che The­men ste­hen auf der si­cher­heits­po­li­ti­schen Agen­da?...

07.04.2025 Von Sören Pe­ters
All­ge­mein

Braucht Deutsch­land einen zu­sätz­li­chen Nach­rich­ten­dienst?

Nach­rich­ten­dienst­li­che Er­kennt­nis­se sind es­sen­zi­ell zur mi­li­tä­ri­schen La­ge­be­ur­tei­lung, für tak­ti­sche und ope­ra­ti­ve Pla­nun­gen. Bei Aus­lands­ein­sät­zen war und ist die Bun­des­wehr auf...

04.04.2025 Von Ben­ja­min Vor­höl­ter
All­ge­mein

Bun­des­wehr und Re­ser­ve - News­blog KW 14

Was be­rich­ten die Me­di­en in die­ser Woche über die Bun­des­wehr und ihre Re­ser­ve? Wel­che The­men ste­hen auf der si­cher­heits­po­li­ti­schen Agen­da?...

04.04.2025 Von Sören Pe­ters