Digitales und KI KI-Waffen und Hackbacks: Angriff und Verteidigung in digitalen Zeiten
Hauptinhalt
05. Oktober 2024, 14:59 Uhr
Marcus Faber (FDP) aus Stendal steht dem Verteidigungsausschuss im Bundestag vor. Er sagt, unsere Gegner nutzen autonome Waffensysteme und digitale Angriffe. Aber wo endet digitale Verteidigung und wo beginnt ein digitaler Angriff? Und wie verändern KI-Waffen den Krieg? Der MDR SACHSEN-ANHALT Podcast "Digital leben" hat mit Experten gesprochen.
- KI-Waffen haben gerade ihren "Oppenheimer-Moment": Militärs geben dafür viel Geld aus. Die Bundeswehr habe bislang sehr wenig KI im Einsatz.
- Experten wünschen sich international verbindliche Regeln für KI-Waffen. Armeen haben mit KI-Waffen in Kriegen aber nicht für weniger Zerstörung gesorgt.
- Im digitalen Raum ist die Grenze unklar, was als digitale Verteidigung und was als Angriff gewertet werden kann. Hackback-Fähigkeiten könnten aber als Abschreckung dienen.
Autonome KI-Waffen haben gerade ihren "Oppenheimer-Moment", schreibt der britische "Guardian": Das US-Militär betreibe 800 KI-Projekte und würde in den nächsten Jahren sechs Milliarden Dollar für 1.000 KI-gestützte Kampfjets ausgegeben. Heise berichtet, US-Forscher entwickeln ein KI-Sprachmodell, das militärische Einsatzpläne schreiben können soll. Das deutsche Defense Start-Up "Helsing" entwickelt KI-Verteidigungssoftware, ist fünf Milliarden Euro wert und kann angeblich bestehende Waffensysteme mit KI aufrüsten.
Im Podcast sagt Faber auch, wie viel KI derzeit in deutschen Waffensystem steckt, was Start-ups aus dem Rüstungsbereich bewirken können und warum Universitäten auf sogenannte Zivilklausel verzichten sollten, die Forschung zu militärischen Zwecken ausschließt.
Methoden der Künstlichen Intelligenz faszinieren Militärs und Verteidigungspolitiker. Und sie kommen bereits bei Kriegen zum Einsatz: In der Ukraine und in Israel. Aber gleichzeitig gibt Marcus Faber, Vorsitzender des Verteidigungsausschusses im Bundestag und Stendaler FDP-Abgeordneter: "Die meisten Zerstörungen, die wir in der Ukraine sehen, sind keine KI. Sondern den Angriff hat ein Befehlshaber der Invasionstruppen befohlen." Und zerstört würde ganz analog mit viel Munition und Stahl.
KI-Waffen in Deutschland: Bundeswehr kann von Ukraine lernen
Trotzdem könne die Bundeswehr im Bereich KI und Drohnen viel von der Ukraine lernen. Ihre Drohnen könnten selbständig Gebiete überfliegen, erkunden und russische Panzer zerstören. "Da passiert unfassbar viel. Die Ukraine hat zu wenig Artillerie-Munition und das ersetzen sie durch Drohnen." Dabei hätte die Drohne keinen Kontakt mehr zu einem Piloten. "Die Drohne hat bestimmte Software und erkennt selbstständig, was ein T-72, ein russischer, ein Kampfpanzer ist."
Ob man das gut finde oder nicht – damit müsse man sich auseinandersetzen: "Das wird auch nicht aufhören. Das wird weitergehen", sagt Faber im MDR SACHSEN-ANHALT Podcast "Digital leben". "Aber das kann man problematisch finden oder nicht, beide Seiten in diesem Konflikt nutzen diese Technik."
Die Bundeswehr habe bislang sehr wenig KI im Einsatz, sagt Marcus Faber. "In Verteidigungssystemen von Schiffen oder Flugzeugen gibt es eine automatisierte Erkennung und Bekämpfung. Aber es ist zu wenig selbstlernende KI dabei." Bei deutsche Waffenherstellern würde das KI-Know-how wachsen. "Die sammeln Daten von einzelnen Fallbeispielen aus der Ukraine: Aus welcher Entfernung erkennt das System eine gegnerische Drohne?"
Systeme könnten Flugverhalten, Geschwindigkeit oder Höhe auswerten. "Das ist aber nichts, was die Bundeswehr hat. Aber die deutschen Drohnenhersteller verkaufen das an die, die es brauchen." Deutschland sei bei der Forschung bislang sehr zurückhaltend gewesen. Und um mit Start-ups in diesem Bereich zusammenzuarbeiten, seien die Beschaffungsprozesse der Bundeswehr langwierig und kompliziert, sagt Faber.
KI-Waffen: Was können internationale Regeln bringen?
Faber findet es problematisch, wenn der Mensch bei einer KI-Waffe nicht die letzte Entscheidung über deren Einsatz hat. Auch Jens Lehmann, Mitglied im Verteidigungsausschuss und CDU-Bundestagsabgeordneter aus Leipzig, ist wichtig, dass der Mensch die Kontrolle behält. "Der Einsatz von KI in Waffensystemen darf niemals dazu führen, dass die menschliche Verantwortung ausgehebelt wird."
Sie könnten zwar militärische Operationen schneller und effizienter machen und Soldaten in gefährlichen Situationen schützen. Aber: "Wir müssen sicherstellen, dass solche Technologien nicht zu einer unkontrollierten Aufrüstungsspirale führen."
Wie das allerdings gehen soll, darauf hat derzeit wohl niemand eine Antwort. "Es führt uns nicht weiter, wenn ein Land einen solchen Vertrag unterzeichnet und dann in 20 Jahren der Dumme ist", sagt Faber. Natürlich müsse der Impuls von den Vereinten Nationen ausgehen. "Ich sehe die Notwendigkeit, aber gibt es die auf der Gegenseite auch?"
Human Rights Watch fordert beispielsweise ein präventives Verbot vollautomatischer Waffensysteme. "Aber finden die auch jemanden, der das unterschreibt? Ich bitte Human Rights Watch, diesen Impuls auch an den Kreml zu richten", sagt Faber.
Besserer Krieg mit KI-Waffen? Wohl kaum.
Auch die Organisation Algorithm Watch hat sich mit KI-Waffen beschäftigt. Nicolas Kayser-Bril von Algorithm Watch sagt, dass KI bereits im Krieg genutzt wird. Im MDR SACHSEN-ANHALT Podcast "Digital leben" sagt er aber auch: "Es gibt null Hinweise dafür, dass KI die neue Atomwaffe ist, wie es der Chef von Palantir behauptet." Kayser-Bril hat im Newsletter von Algorithm Watch geschrieben, die israelische Armee habe Systeme entwickelt, die automatisch Palästinenser bewerten und entscheiden würden, ob sie weiterleben dürfen oder nicht.
Kayser-Bril vergleicht die Waffen- mit der Werbeindustrie: "Neue Technologien individualisieren die Kriegsführung ungefähr genauso wie sie Werbung personalisieren." Aber eine individualisierte Kriegsführung würde nicht unbedingt dazu führen, dass Waffen effizienter eingesetzt oder Ziele besser unterschieden würden. "Aber sie könnte zu einer größeren Angst unter der Zivilbevölkerung beitragen", sagt Kayser-Bril.
Bislang hätten KI-Technologien im Krieg keinen Unterschied gemacht: "Wenn es inzwischen technologisch möglich ist, Ziele viel präziser anzugreifen, müssten wir doch eigentlich weniger Zerstörung sehen statt mehr." Für Kayser-Bril ist etwas anderes bedeutsam: Kriegsparteien würden mittlerweile Kämpfer und Zivilisten nicht mehr nur anhand von äußeren Merkmalen wie einer Uniform oder Waffe unterscheiden. "Stattdessen entscheiden automatisierte Systeme auf einer weitgehend undurchsichtigen Grundlage darüber." So könnte Krieg zur Jagd werden und sich das Schlachtfeld auflösen.
Wo ist im Cyberraum die Grenze zwischen Verteidigung und Angriff?
Im MDR SACHSEN-ANHALT Podcast "Digital leben" schlägt Dr. Sven Herpig vom Thinktank interface eine Definition vor, um im Digitalen besser zwischen Angriff und Verteidigung zu unterscheiden: intrusiv und nicht-instrusiv: "Nicht intrusiv wäre es zum Beispiel, den Datenverkehr umzuleiten oder ein DDoS-Angriff, der Webseiten lahmlegt. Dabei werden keine Sicherheitsmechanismen überwunden." Intrusiv wäre ein DDoS-Angriff, der die Kommunikation des Gegners lahmlegt.
Die Grauzone sieht Herpig beim sogenannten "Preparing The Battlefield" oder "Pre-Positioning" – einer Art digitalem Sich-In-Stellung-Bringen: "Wer irgendwann Operationen durchführen möchte, muss das vorbereiten und die Systeme des Gegners auf Schwachstellen scannen und bereits versuchen, Hintertüren einzubauen." Ansonsten dauere es Monate, so eine Operation durchzuführen. Über dies Grauzone müssten wir in Deutschland reden, fordert Herpig.
Denn wir müssen als Demokratie überlebens- und verteidigungsfähig sein, sagt Faber. Das Digitale habe die Lage verschärft. "Kommen wir zu einer internationalen Vereinbarung in dem Bereich oder nicht? Wenn nicht, nutzen wir dann diese Mittel, die andere Länder bereits nutzen?" Die deutsche Gesellschaft sei lange Zeit unfassbar naiv gewesen, sagt Faber. "Wir haben Jahre über die Bewaffnung von fünf Drohnen gesprochen. Die werden gerade millionenfach eingesetzt!" Auch die Politik habe sich lange die Welt zusammen gewünscht. "Andere wünschen sich eine andere Welt und greifen ihre Nachbarländer an."
Krieg im Cyberraum: Sind Hackbacks Angriffe?
Aber nicht nur auf dem Schlachtfeld in der echten Welt verschwimmen Grenzen – auch im Cyberraum ist es schwierig, Grenzen zu ziehen: was gilt als digitale Verteidigung und was kann als Angriff interpretiert werden? Für die Linken-Bundestagsabgeordnete Petra Sitte aus Halle ist klar: Die Bundesregierung ist bei der Diskussion nicht ehrlich. "Im Koalitionsvertrag der Ampel steht, Hackbacks lehnen wir als Mittel der Cyberabwehr grundsätzlich ab. Aber das Bundesinnenministerium fordert eine aktive Cyberabwehr und Markus Faber will Hackbacks." So verwische man bewusst die Grenze zwischen Angriff und Verteidigung im digitalen Raum.
Sitte sagt, der digitale Raums sei unübersichtlich. "Angriff ist Angriff, egal aus welchen Gründen er erfolgt." Das gelte auch für Hackbacks: "Wer Systeme angreift, die vermutlich für einen Angriff benutzt wurden, weiß nicht, wer und was damit noch getroffen wird." Außerdem müssten für Hackbacks IT-Schwachstellen offengehalten und ausgenutzt werden. Dabei gehörten sie geschlossen. "Echte Verteidigung im digitalen Raum besteht aus Sicht der Linken darin, die IT-Sicherheit vor allem für die kritische Infrastruktur zu verbessern."
Oder sind Hackbacks Abschreckung?
Faber sagt: "Es ist ja schön, wenn wir uns die Welt so wünschen. Aber für realistische Abschreckungen auch im digitalen Raum, geht es darum, auch die Schwachstellen von gegnerischen Systemen ausfindig zu." Faber sagt, man könne davon ausgehen, dass Putins Hacker bereits in bestimmten digitalen Infrastrukturen in Deutschland sind. "So schaffen sie Bedrohungsszenarien und Eskalationsstrukturen."
Analog wie digital gelte: Wer verhindern wolle, angegriffen zu werden, der müsse seinen Gegner wissen lassen, dass man reagieren könne, sagt Faber. "Und ein solches Potenzial muss man dann auch aufbauen." Bislang sei Deutschland dabei hinterher. "Die USA, Israel, Taiwan und Estland sind im Bereich Cyber deutlich weiter. Wir haben starken Nachholbedarf. Aber der ist erkannt und wird angegangen."
MDR (Marcel Roth)
Not Found
The requested URL /api/v1/talk/includes/html/d0e91c3a-598d-4c1b-8b24-31e5fbf0402a was not found on this server.