Frau schaut traurig auf ihr Mobiltelefon
Die Identität gestohlen: Wenn eigene Fotos und Videos manipuliert werden, kann für Betroffene ein hoher Schaden entstehen. Bildrechte: PantherMedia / Antonio Guillen F

Deepfakes Universität Leipzig forscht zum Missbrauch von Künstlicher Intelligenz

18. September 2023, 18:37 Uhr

Nichts ahnend im Internet surfen und plötzlich sieht man sein Gesicht – aber nicht auf dem eigenen Körper. Deepfakes werden immer populärer und sind bereits Teil unseres Alltags. An der Universität in Leipzig gibt es bereits seit 2020 ein eigenes Deepfake-Projekt. Professor Alexander Godulla möchte mit seinem Team sowohl Chancen als auch Risiken künstlicher Intelligenz erforschen und aufzeigen.

Bilder werden mit Aufnahmen einer bestimmten Person verschmolzen, so dass sie realistisch aussehen. 96 Prozent solcher sogenannter Deepfakes sind pornografisch. Das hat eine Untersuchung des niederländischen Unternehmens Deeptrace bereits 2019 ermittelt. Die Betroffenen sind meistens Frauen.

Künstliche Intelligenz macht das möglich. An der Universität Leipzig werden sowohl Chancen als auch Risiken der Technologie von einem Team rund um Professor Alexander Godulla erforscht. Seit 2020 gibt es hier das Deepfake-Projekt. In dieser Zeit hat sich viel getan: Die KI entwickelt sich enorm schnell und macht technische Fortschritte.

Die Gesellschaft ist in ihrer Breite nicht auf diese Technologie vorbereitet.

Alexander Godulla | Professor für Medienforschung an der Universität Leipzig

Godulla schätzt das individuelle Schadensrisiko extrem hoch ein. Das Forscher-Team hat untersucht und herausgefunden, dass viele Menschen in Bezug auf Deepfakes besorgt sind. Das erkärt er in einer neuen exactly-Reportage. Die Mehrheit der Menschen aus einer repräsentativen Studie des Forschungsteams sind der Auffassung, dass sie Deepfakes nicht erkennen könnten. Nach Einschätzung von Godulla ist die Gesellschaft größtenteils noch nicht darauf vorbereitet.

Was ist ein Deepfake? Was bedeutet überhaupt das Wort "Deepfake"? Es setzt sich aus zwei Begriffen zusammen. Zum einen aus dem Teil "Deep Learning", was das Lernen von Programmierungen, also künstlicher Intelligenz (KI) beschreibt und zum anderen aus den Wort "Fake". Es werden also die Lernfortschritte der KI genutzt um Bilder oder auch Videos zu fälschen. Das Gesicht von Person A lässt sich so ohne Probleme auf den Körper von Person B setzen. Dabei können die Deepfakes täuschend echt sein – oft kann nicht mehr unterschieden werden, ob eine Aufnahme gefälscht ist oder nicht.

Gefälschte Fotos und Videos von allen möglich

Bei pornografischen Deepfakes werden oft die Gesichter von prominenten Frauen missbraucht. Dass Prominente pornografische Inhalte ins Netz stellen ist eher unwahrscheinlich und daher oft schnell als Deepfake zu erkennen. Wenn aber Deepfakes von Menschen ins Internet gestellt werden, die nicht berühmt sind, falle es den Betrachtenden zunehmend schwer, diese überhaupt als Fälschungen zu erkennen, schätzt Godulla ein.

Wenn wir Deepfake-Pornografie von normalen Leuten haben, dann weiß ja niemand: Wie kam das überhaupt zustande? Ist das echt? Ist das nicht echt?

Alexander Godulla | Professor für Medienforschung an der Universität Leipzig

MDR-Reporterin Marie-Theres Brand hat für exactly Frauen getroffen, die Opfer von pornografischen Deepfakes wurden. Die Twitch – Streamerin Shurjoka ist nur ein Beispiel für den Missbrauch mit KI. Die Influencerin hat den Kampf gegen die Täter mittlerweile aufgegeben. In einem Selbstversuch hat Marie außerdem Deepfakes erstellt und festgestellt, dass es überraschend einfach ist.

Wie kann man sich gegen Deepfakes wehren?

Jeder, der sich öffentlich im Internet zeigt, kann ein Opfer von Deepfakes werden. Bei Deepfakes wird das Recht am eigenen Bild verletzt. Deepfakes gelten meist aber nur als minderschwere oder kleine Straftaten, erklärt Josephine Ballon. Sie ist Anwältin bei der gemeinnützigen Organisation HateAid, die sich für Menschenrechte im digitalen Raum einsetzt. Zurzeit gebe es noch keine Gesetze, die Verbreitung oder Veröffentlichung von Deepfakes einschränkt. Laut Bundesjustizministerium sind die aktuellen Gesetze ausreichend.

Eine andere Ansicht vertritt Josephine Ballon. Aus ihrer Sicht wird den Betroffenen suggeriert, dass Deepfakes und der daraus resultierende individuelle Schaden keine Bedeutung für den Staat habe. Faktisch könne man Deepfakes anzeigen, oft werden diese aber nicht verfolgt.

Den Betroffenen wird suggeriert: Dass Nacktfotos von dir in aller Öffentlichkeit kursieren, interessiert den Staat nicht. Du musst dich selber darum kümmern. Hier fühlen sich Betroffene zurecht verhöhnt. Man kann faktisch sagen: Ja, man kann es anzeigen, und irgendwie wird es im Gesetz auch abgebildet. Aber es wird so gut wie nie verfolgt.

Josephine Ballon Anwältin bei HateAid

Die Organisation HateAid unterstützt Opfer von digitaler Gewalt. Sie wollen mit einer Petition die aktuelle Gesetzteslage verändern.

gestaltete Collage 21 min
Bildrechte: MITTELDEUTSCHER RUNDFUNK
21 min

exactly Mo 18.09.2023 08:00Uhr 20:51 min

Rechte: MITTELDEUTSCHER RUNDFUNK

Video

MDR (Marie-Theres Brand, Christin Rüdebusch)

Dieses Thema im Programm: MDR+ | exactly in der ARD Mediathek | 18. September 2023 | 08:00 Uhr

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/f206d477-b01e-462d-8c96-ae1606ad4805 was not found on this server.

Mehr aus Sachsen