Sora-Logo auf Smartphoe-Display
Der KI Videogenerator Sora erstellt anhand von Text-Befehlen Videos. Bildrechte: IMAGO / SOPA Images

Wissen-News Realismus von OpenAI-Videogenerator Sora weckt Deepfake-Ängste

21. März 2024, 11:25 Uhr

Der hohe Realismus des Sora-Videogenerators von OpenAI weckt Ängste vor Deepfake-Videos für politische Kampagnen. Das KI-Tool ist in der Lage, anhand von Text-Befehlen täuschend echte Videos zu erstellen. Kommunikationswissenschaftler in Mitteldeutschland haben eine unterschiedliche Sicht auf die Problematik.

Der Realismus des neuen KI-Videogenerators Sora des US-amerikanischen ChatGPT-Entwicklers OpenAI weckt Ängste vor brisanten Video-Deepfakes im Wahljahr 2024. Das KI-Tool ist in der Lage, anhand von Text-Befehlen täuschend echte 60-Sekunden-Videos zu erstellen. Wie das Fachmagazin New Scientist berichtet, erreicht Sora seinen hohen Grad an Realismus durch die Kombination zweier KI-Ansätze: Demnach wandelt ein lernfähiges Diffusionsmodell zufällige Bildpixel in ein kohärentes Bild um, während zeitgleich eine Transformer-Architektur sequentielle Daten kontextualisiert und zusammensetzt.

Aufgrund weiterer rasanter Verbesserungen solcher Text-to-Video-Anwendungen rechnet der KI-Experte Hany Farid von der University of California in Berkeley damit, dass es künftig immer schwieriger wird, gefälschte von echten Videos zu unterscheiden. "Diese Technologie könnte, wenn sie mit KI-gestütztem Klonen von Stimmen kombiniert wird, eine völlig neue Front eröffnen, wenn es darum geht, Deepfakes von Menschen zu erstellen, die Dinge sagen und tun, die sie nie getan haben", sagte Farid dem New Scientist.

Auch die Jenaer Kommunikationswissenschaftlerin Edda Humbrecht warnte vor KI-generierten Inhalten, die vor Wahlen in Sozialen Medien und auf Internetplattformen genutzt werden könnten, "um falsche Narrative zu verstärken oder politische Gegner in ein schlechtes Licht zu rücken". Forschungen würden zeigen, dass es für die Menschen immer schwieriger werde, echte von KI-generierten Inhalten zu unterscheiden, sagte sie der Nachrichtenagentur KNA. Der Leipziger Forscher Christian Hoffmann mahnte hingegen, die Wirkung von KI-generierten Bildern vor Wahlen nicht zu überschätzen. "Die Wahrscheinlichkeit, dass ein Wähler über ein glaubwürdiges politisches Deepfake stolpert, ist so gering, dass eine solche Kampagne unnötig Verunsicherung auslösen könnte", sagte er der KNA.

New Scientist/KNA (dn)

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/1317a39c-d625-4d12-9b40-9c8520c0bc08 was not found on this server.

Mehr zum Thema