Illustration einer Hand, die eine Maske präsentiert, die zu einem Mikrofon spricht, das auch in einer Hand gehalten wird. Dazwischen verschidene verwobene Verbindungslinien. 4 min
Bildrechte: imago/Westend61
4 min

KI kann jetzt auch Video, dank Sora täuschend echt. Die Technik beunruhigt, im Hinblick auf Fakenews und die in diesem Jahr anstehenden Wahlen in Deutschland und Europa. Aber mit Recht? Hintergründe von Florian Zinner

MDR AKTUELL Mo 11.03.2024 20:17Uhr 04:13 min

https://www.mdr.de/wissen/audios/audio-ki-video-deepfakes-gefahr-politik-wahlkampf-100.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Audio

Künstliche Intelligenz und Wahlen Fake-Videos: Schmeißt die KI dieses Jahr den Wahlkampf um?

03. Juni 2024, 17:27 Uhr

Anderthalb Jahre nach dem großen KI-Hype kommt KI-Pionier Open AI mit einem "O" um die Ecke. Statt eines Versionssprungs auf GPT-5 gibt es mit GPT-4o nun zwar ein multimediales Universalmodell, aber Videos kann es noch nicht. Mit der KI-Video-Software Sora hat das Unternehmen aber dieses Jahr bereits gezeigt, dass es auch das kann: Falsche Videos täuschend echt generieren. Das beunruhigt zunächst, im Hinblick auf die in diesem Jahr anstehenden Wahlen in Deutschland und Europa. Mit Recht?

Junger Mann mit Bart, runder schwarzer Brille, schwarzem Basecap vor Roll-Up-Plane mit Logo von MDR WISSEN
Bildrechte: MDR

Das Märchen geht so: Sie würde nur Pommes essen und deswegen seien ihr die Kartoffeln der Landwirtinnen und Landwirte – und deren Sorgen – gar nicht mal so wichtig. Das, was die Grünen-Bundesvorsitzende Ricarda Lang da angeblich im Lanz'schen Talk-Sessel zum Besten gegeben hat und Anfang des Jahres auf der Videoplattform Tiktok kursiert ist, war ein Fake. Und obendrein noch ein schlecht gemachter. Wahrscheinlich auch deshalb ohne weitere politische Einflüsse.

"Das ist eine gemeine Stichelei, würde ich sagen, die bei denjenigen, die Ricarda Lang nicht mögen, wahrscheinlich für Unterhaltung gesorgt hat", so das Urteil von Christian Hoffmann, Professor für Kommunikationsmanagement an der Uni Leipzig. Mimik und Gestik passen nicht zum Gesagten, die Sprache wirkt unnatürlich: Sonderlich viel Mühe und Leidenschaft an der Fälschung stecken in diesem Video schon mal nicht.

Schlechte Fake-Videos wollen nicht glaubwürdig sein

Tja. Müssen sie auch nicht, sagt Christian Hoffmann, denn der Verbreitung solcher Videos schade das nicht sonderlich: "Also wir wissen aus der Forschung, dass auch die Personen, die die Missinformation posten, nicht selten tatsächlich wissen, dass das nicht echt ist." Desinformation ist also nicht nur bei denjenigen Vorsatz, die sie in Umlauf bringen – sondern mitunter auch bei den teilungswilligen Rezipienten. Denn wenn der Fake zum eigenen Weltbild passt, dann sei das eben trotzdem eine lustige Sache, so Hoffmann.

Damit Falschinformationen und Videofakes aber tatsächlich funktionieren, müssen Sie vor allem eines sein: plausibel. Das gilt auch für täuschend echte Deepfakes. So sei ein künstlich generierter Bundeskanzler, der eine aktuelle außenpolitisch schwierige Situation betont, durchaus glaubwürdig. "Wenn ich dagegen jetzt Bundeskanzler Scholz, ganz fiktiv, in einer Situation sehe, wo er koksend in Umgebung von Prostituierten gezeigt wird, dann würde ich vielleicht verdutzt reagieren und denken: Das ist jetzt irgendwie seltsam." Das bedeutet: Deepfakes sind dann überzeugend, wenn sie eigentlich etwas bestärken, was wir ohnehin schon zu wissen glauben.

Was sind Deepfakes? Unter Deepfakes bezeichnet man gefälschte, täuschend echte audiovisuelle Inhalte, die mithilfe von generativer KI entstanden sind. Reelles Material dient dabei dem Training – deshalb funktionieren Deepfakes bei Schauspielerinnen und Schauspielern besonders gut. Mit Deepfake-Technologie war es zum Beispiel auch möglich, in der Serie "Neue Geschichten vom Pumuckl" die bekannte Pumuckl-Stimme des bereits verstorbenen Hans Clarin anzubieten.

Auch Edda Humprecht, Professorin für Digitalisierung und Öffentlichkeit an der Uni Jena, betont, dass unplausible Fakes schnell entlarvt würden: "Man muss dazusagen, bisher haben Deepfakes in der politischen Kommunikation keine sehr große Rolle gespielt. Der Großteil war eher im pornografischen Bereich, aber das heißt jetzt nicht, dass nicht zukünftig im Vorfeld von Wahlen, politische Akteure ins Visier genommen werden."

Bisher haben Deepfakes in der politischen Kommunikation keine sehr große Rolle gespielt

Edda Humprecht Uni Jena

Gerade bei starken Emotionen wie Angst und Empörung steige Humprecht zufolge das Risiko, dass falsche Inhalte geteilt werden. Deren Erstellung ist nun auch ohne gesonderte medientechnische Ausbildung in quasi-jedermanns Hand. Neben Text-generierenden Chatbots geben Firmen wie Adobe, Microsoft und Open-AI Nutzenden Tools an die Hand, mit denen sich Bilder per Texteingabe erstellen lassen. Solche Software hört auf Namen wie Midjourney, Stable Diffusion, Dall-E oder Firefly und ihre Ergebnisse lassen sich, wenn sie mit der nötigen Akribie erstellt wurden, nur mit einem sehr findigen Blick als KI-generiert identifizieren. (Immer erstmal auf die Finger gucken!)

GPT-4o, GPT-5 oder Sora: Wo steuert Open AI hin?

Statt durch GPT-5 überraschte KI-Pionier Open AI im Mai mit einer Version seines großen Sprachmodells, das die etwas sperrige Versionsnummer GPT-4o trägt. Das O steht für omni und bedeutet, dass das Modell Text, Bild und Ton gleichermaßen versteht. Das ist trotz anerkennender Worte aber nicht der ganz große Brüller, nicht so einer, wie ihn Open AI dieses Jahr bereits mit Sora präsentiert hat. Ein Modell, das den anderen Produkten im Haus schlichtweg den Rang abläuft. Videos sind das High-End-Futter für die von Edda Humprecht angesprochenen Emotionen und mit Sora lassen sie sich, so sieht es zumindest erstmal aus, per Texteingabe vom Schreibtisch aus generieren. Die bis zu einer Minute langen Clips, die Open AI öffentlichkeitswirksam vorgeführt hat, überraschen durch ihre scheinbare Makellosigkeit. Zum Beispiel beim felligen Vierbeiner, der morgens bei Frauchen im Bett sanft, aber doch penetrant nach dem Frühstück fragt. Oder bei der Frau, die erhaben durch das verregnete Tokio spaziert. Auf den ersten Blick ist das eine ganz andere Hausnummer als der Pommes-Fake um Ricarda Lang. Und auch als das, was noch vor gerade einmal etwas mehr als einem Jahr viral ging: Ein Spaghetti futternder Will Smith, der einem angesichts der ganzen KI-Fehler und Bildfragmente fast schon leidtut.

Open AI und Sora: Eine Frage des Aufwands

Dennoch lohnt der Boden der Tatsachen: Der Kommunikationsforscher Christian Hoffmann betont den immens hohen Aufwand, der hinter den neuen Sora-Clips steht. Zu dieser Auffassung kommen auch andere Fachleute. So hat der KI-Experte Gary Marcus die Clips bereits durch eine Fehleranalyse entzaubert und weist auch noch mal darauf hin, dass viele der Videos lediglich Slow Motion-Inhalte darstellen würden, bei denen wenig Bewegung und Veränderung passiere. Harte Schnitte wären weitaus komplexer. (Das sind so Dinge, über die man sich erstmal keine Gedanken macht, wenn man das erste Mal mit offener Kinnlage in die KI-Röhre blickt.)

Die Branchenkenner vom Social Media Watchblog schreiben: Selbst die Auswahl besonders gelungener künstlich generierter Videos sei eben nicht fehlerfrei und nur oberflächlich beeindruckend. Und der Ressourcenaufwand, unter dem die kurzen Sequenzen generiert wurden, sowie der Zeitaufwand, einen Clip zu erstellen, völlig unklar. Open AI hält sich dazu trotz verschiedener Medienanfragen bedeckt. Und präsentiert die Clips als Stummfilm. Deepfake-Stimme und Deepfake-Bild müssten für eine gelungene politische Fälschung künftig erstmal adäquat miteinander verwoben werden, was einfacher klingt als es ist. Und vielleicht noch länger dauert: Das Social Media Watchblog weist darauf hin, es dürfe nicht davon ausgegangen werden, dass die Entwicklung künftig immer so große Sprünge mache wie im vergangenen Jahr.

KI-Video-Fakes: Ein Problem für bevorstehende Wahlen?

Kritisch für die jetzt anstehenden Wahlen ist die von Open AI noch unter Verschluss gehaltene neue Technik vorerst nicht, sagt Christian Hoffmann. Menschen ließen sich in ihrer politischen Meinung auch nicht so einfach verändern, höchsten verstärken: "Es bräuchte schon sehr viel mehr als nur ein Videoschnipsel, über das ich im Internet stolpere, um zum Beispiel von einem grünen Wähler plötzlich zu einem Unionswähler zu werden."

Illustration einer großen Hand, die eine Sprechblase von einer Sprecherin an einem Rednerpult abblockt.
Deepfakes – erst dann wirklich überzeugend, wenn sie auch plausibel sind. Bildrechte: imago/Westend61

Trotzdem, die Gefahr ist grundsätzlich real, erklärt Kommunikationswissenschaftlerin Edda Humprecht: "Die öffentliche Meinung kann manipuliert werden, und auch das Vertrauen in demokratische Institutionen, in Wahlen und so weiter kann untergraben werden."

Menschen an Glaubwürdigkeit interessiert, Maßnahmen gegen Deepfakes müssen aber kommen

Immerhin: Die meisten Menschen beziehen Informationen nach wie vor aus verlässlichen Quellen, betont Christian Hoffmann. Auch wenn viele glauben, für Fehlinformationen wenig anfällig zu sein und sich dahingehend eher Sorgen um ihre Mitmenschen machen. "Gutgläubige Trottel sind immer die anderen", betitelt es Spiegel-Kolumnist Christian Stöcker treffend, was eine aktuelle Studie der Bertelsmann-Stiftung zutage gefördert hat (siehe Grafik weiter oben im Text). Zu den Erkenntnissen zählt auch, dass Desinformation als großes gesellschaftliches Problem wahrgenommen wird.

Zumindest können Fakes bei Wahlen des Zünglein an der Waage sein. Wahrscheinlich als ein Symptom unter vielen. Denn künftig müsse sich die Gesellschaft grundsätzlich von der Idee verabschieden, dass Fotos und Videos immer die Realität zeigen, sagt Hoffmann. Technische Filterlösungen werden KI-generierte Inhalte in Zukunft zwar durchaus erkennen können, letztendlich könnte es aber auf ein Katz-und-Maus-Spiel hinauslaufen. Um mit der neuen Informationsordnung umzugehen, brauche es neben einer entsprechenden Gesetzgebung auch die Anstrengungen durch soziale Netzwerke. Und effektive Bildungsprogramme, schlägt Edda Humprecht vor: "Dann sollte man vor allen Dingen auch trainieren, dass Medieninhalte auch kritisch hinterfragt werden, dass man weiß, wo man professionell produzierte verlässliche Informationen finden kann und wo man vielleicht eher vorsichtig sein sollte. Und wo man eben auch überprüfen kann, ob solche Inhalte falsch sind." Die Schulung von Medienkompetenz eben.

Angst dürfe man allerdings nicht schüren, appelliert Christian Hoffmann. "Wenn wir jetzt natürlich die Idee einpflanzen, dass das Internet ein gefährlicher Ort ist, in dem nur Desinformation herumschwirrt, führt das im Zweifelsfall dazu, dass Bürger plötzlich Dinge nicht mehr annehmen, die wahr sind." Und zwar genau dann, wenn die nicht ins eigene Weltbild passen. Ein Weltbild etwa, in dem Ricarda Lang die Landwirtschaft angeblich egal sei, weil sie doch sowieso denke, Pommes würden in der Gefriertruhe wachsen.

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/bf1c7453-8412-401d-bd39-38cde6a8ba7b was not found on this server.

Mehr zum Thema