KI als Werkzeug, KI als Waffe Wie KI die Bundestagswahl verändert
Hauptinhalt
24. Dezember 2024, 05:00 Uhr
KI ist ein Segen für die Parteien, die im vorgezogenen Wahlkampf schnell Inhalte liefern müssen. Und sie ist ein Fluch, denn Deep Fakes beispielsweise sind kaum zu erkennen - prägen sich aber ein. Das Klonen von Stimmen mit KI funktioniert schon gut, die Angst vor sogenannten Robocalls hält sich in Deutschland aber noch in Grenzen. Viel effektiver und einfacher sind Bilder und Posts in den sozialen Medien - mit KI noch viel schneller als bisher generiert.
- KI macht Cyberkriminelle effizienter und kann im Wahlkampf für Desinformation genutzt werden.
- Linke-Politikerin Domscheit-Berg fallen viele Beispiele für den Einsatz von KI im Wahlkampf ein.
- Ethik-Professorin sieht große Chance in KI, erkennt aber auch die Grenzen.
Johanna Reiml steht Anfang Dezember im Hörsaal-Foyer vom Hasso-Plattner-Institut (HPI) in Potsdam. Vor ihr ein weißer und ein roter Telefonhörer, ein Rechner und viele Menschen. Die KI-Ingenieurin zeigt den Gäste der AI@HPI-Konferenz, wie es in ganz kurzer Zeit mit Hilfe von KI gelingt, eine Stimme zu fälschen. Inzwischen braucht es Tonschnipsel von unter zehn Sekunden, um eine Stimme für beispielsweise einen Schwindel-Anruf zu klonen.
Mit Stimm-Klonen jedes Szenario möglich
Tatsächlich ist ein erstes Beispiel schon nach fünf Sekunden Sprechen abhörbereit. Blechern und gestelzt, doch für die Tonverhältnisse in der vollen Eingangshalle und der Kürze Ursprungs-Stimmschnipsels ist die Stimmqualität ganz passabel. "Mit solchen KI-Anwendungen kann man jedes Szenario generieren", meint Reiml.
Und genau das macht KI-Anwendungen auch so gefährlich. In Bezug auf Wahlen, wie der HPI-Forscher Gerard de Melo auf der Konferenz warnt, aber nicht ausschließlich. Tatsächlich stand die Universität Potsdam und damit auch das Hasso-Plattner-Institut Anfang Dezember unter einem sogenannten DDOS-Angriff, die Webseiten waren nicht erreichbar. Das sind Angriffe, die laut Bundesamt für Sicherheit in der Informationstechnik (BSI) mit KI noch einfacher werden.
BSI: KI macht Cyberkriminelle effizienter
"Cyberkriminelle können durch KI effizienter werden", sagt Thomas Caspers vom BSI, sie könnten sogar KI-Anwendungen knacken. Und natürlich könne KI im Wahlkampf für Desinformation genutzt werden, warnt Caspers der im BSI die Abteilung für Technologiestrategie und Informationstechnik leitet. "Das passiert heute auch schon. Wir haben solche Entwicklungen beobachtet in den USA. Da gab es Robocalls mit einer täuschend echten Stimme von Joe Biden, die aber gefälscht war und in Deutschland haben wir das auch schon gesehen". Er meint den Fall eines Nachrichtensprechers, der mit vertrauter Stimme eine Falschnachricht vorliest. Oder auch nicht - die Stimme war geklont.
Caspers: Gesundes Misstrauen ist angebracht
Solche Deep-Fakes sind dem BSI-Experten zufolge nicht so ohne Weiteres erkennbar, denn die Stimmen klangen vertraut. "Bislang gibt es keine, zumindest keine wirklich zuverlässige Methode, technisch zu erkennen, dass solche Deep Fakes vorliegen", sagt Caspers. Daher müssen die Menschen ein gesundes Misstrauen dafür entwickeln, auf welche Informationen man sich verlassen könne und in der Bevölkerung insgesamt ein Bewusstsein dafür entstehen, dass mit KI Fotos, Videos, Audioaufnahmen täuschend echt gefälscht werden können.
Domscheit-Berg: Es bleibt immer etwas hängen
Das Perfide: Selbst wenn sich die Informationen als Lug und Betrug oder KI-generiert herausstellen, bleibe bei entsprechender Reichweite etwas hängen, sagt Anke Domscheit-Berg, Netzexpertin der Partei die Linke. "Wir wissen inzwischen, dass menschliche Gehirne so funktionieren, dass selbst wenn bei böswilligen Postings dabeisteht, 'KI-generiert', erinnern das Menschen nicht. Die erinnern sich an das Bild, die erinnern sich an die Botschaft und die speichern das ab, obwohl es Fake ist." Man könne dann irgendwann nicht mehr richtig unterscheiden, was eigentlich Wahrheit und was Lüge ist und das mache es gefährlich.
Es bleibt also immer etwas hängen. Und doch ist KI nicht nur Waffe im Wahlkampf, sie ist auch Werkzeug. "Also inzwischen dürften eigentlich alle größeren politischen Parteien sehr viel KI benutzen, einfach als Effizienzwerkzeug, um den Alltag leichter zu machen", erklärt Domscheit-Berg. "Und das ist gerade sogar besonders wichtig, weil wir ja plötzlich vorgezogene Wahlen haben, (..) da kann KI sehr helfen." Zum Beispiel könne man große Textmengen mit KI analysieren oder ein Wahlprogramm in einfacher Sprache übersetzen. Oder Chatbots bauen. Anke Domscheit-Berg fallen ad hoc viele Nutzungsszenarien für die Wahl ein.
Ethik-Professorin Bryson: "KI ist das Gesicht, das wir der digitalen Revolution geben"
Joanna Bryson auch. Sie lehrt Ethik und Technologie an der Hertie School und meint: Buchstäblich alles, wozu wir unser Gehirn einsetzen, können wir mit KI besser machen. "Manchmal denke ich, KI ist das Gesicht, das wir der digitalen Revolution geben. Wir können Informationen viel schneller übertragen, mehr wissen, intensiver nachdenken und somit mehr öffentliche Güter produzieren. Das klingt großartig, außer bei Erkenntnisgewinnen, die unsere öffentlichen Einrichtungen nicht mögen."
Eine Grenze aber gibt es. Echte Zufriedenheit schaffen beispielsweise könne KI nicht. Menschliche Zufriedenheit basiert Bryson zufolge "darauf, dass wir Affen sind: Wir brauchen Essen, Freunde – solche Dinge, die unmittelbarer sind; physische Sicherheit und Sicherheit für unsere Gemeinschaften." Alles, was eine echte Investitionen in zwischenmenschliche Interaktionen erfordert, das kann KI Bryson zufolge nicht.
AlgorithmWatch-Studie zu Landtagswahlen in Sachsen und Thüringen: Falsche Antworten auf Termin-Fragen
Deep Fakes sind die eine Seite, die KI befeuert. Die andere: KI ist für viele inzwischen Google-Ersatz. Und birgt da noch einmal ganz neue Gefahren, wie Clara Helming von der Nichtregierungsorganisation AlgorithmWatch in Berlin und Zürich berichtet. Diese hatte schon 2023 untersucht, ob KI-getriebene Suchmaschinen demokratische Wahlen gefährden. Dieses Jahr haben sie vor den Landtagswahlen in Sachsen, Thüringen und Brandenburg wieder verschiedene KI-Modelle daraufhin untersucht, wie sie Fragen zu Wahlen beantworten. Zu Terminen häufig falsch, meint sie - die Modelle hätten einfach Probleme mit Zahlen.
Betroffen waren aber auch Auskünfte zu weniger prominenten Kandidatinnen und Kandidaten. Hier wurden Helming zufolge Geschichten zur Person erfunden oder falsche Angaben in der Biografie gemacht. AlgorithmWatch wünscht sich daher Schutzvorkehrungen bei den Modellen oder dass diese ihre bereits versprochenen Sicherheitsvorkehrungen auch konsequent einsetzen. "Dass sie also nicht auf wahlbezogene Fragen antworten, weil das Risiko zu groß ist, dass sie halluzinieren."
Eine ihrer Sorgen: Dass die generierten falschen Texte vermehrt in den Umlauf kommen und das am Ende dazu führt, dass man sich nicht mehr darauf verlassen kann, was man im Internet liest. Die Eingangs erwähnten Robocalls machen Helming noch am wenigsten Sorgen: Viel zu aufwendig. Denn die Stimme generieren sei eine Sache, die Telefonnummern zu organisieren zum Beispiel eine andere. Für Menschen, die Verunsicherung und Lügen streuen und der Demokratie schaden wollten gebe es viel günstigere Möglichkeiten, Lügen zu verbreiten.
Dieses Thema im Programm: MDR AKTUELL | MDR AKTUELL RADIO | 23. Dezember 2024 | 05:00 Uhr