Portrait einer jungen Frau, eingehüllt in ein weißes Fell, tiefroter Lippenstift, direkter Blick
Bildrechte: IMAGO / imagebroker

Hyperrealismus: Wenn die KI realer aussieht als die Wirklichkeit

13. November 2023, 15:08 Uhr

Australische Forschende fanden heraus, dass Menschen Gesichter, die mit künstlicher Intelligenz erstellt wurden, häufiger als real wahrnehmen als echte Gesichter. Sie warnen vor Täuschungen und dem Missbrauch der KI.

Forschende der Australian National University (ANU) haben untersucht, wie gut Menschen reale Gesichter von denen unterscheiden können, die durch eine künstliche Intelligenz erzeugt wurden. Das Ergebnis: Mehr Studienteilnehmende hielten die KI-generieten weißen Gesichter für menschlicher als Gesichter von realen Menschen.

Für Gesichter mit anderen Hautfarben gilt dieses Ergebnis jedoch nicht. Das liegt daran, das KI-Algorithmen überproportional auf weiße Gesichter trainiert werden. "Wenn weiße KI-Gesichter durchweg als realistischer wahrgenommen werden, könnte diese Technologie schwerwiegende Folgen für farbige Menschen haben, da sie letztlich rassistische Vorurteile im Internet verstärkt", so Amy Dawel, Hauptautorin der Studie.

Hinzukommt, dass der Hyperrealismus, der bei weißen Gesichtern vorkommt, dazu führt, dass Menschen nicht merken, dass sie getäuscht werden. Laut Studie waren die Menschen, die sich für die KI-Gesichter entschieden, auch am überzeugtesten davon, dass sie sich nicht haben täuschen lassen.

Ein anderes Problem, dass mit den immer innovativer werdenden KI-Bildgeneratoren einhergeht, ist die Gefahr des Missbrauchs. Am häufigsten werden sogenannte Text-zu-Bild-Modelle verwendet. Nutzende können sich durch die Eingabe bestimmter Textinformationen KI-Modelle eines digitalen Bildes generieren lassen. Auch menschenverachtendes Bildmaterial und Hass-Memes können so erzeugt werden.

Forschende aus dem Team von CISPA-Faculty Dr. Yang Zhang haben nun untersucht wie hoch der Anteil dieser sogenannten "unsicheren Bilder" unter den vier bekanntesten KI-Bildgeneratoren ist. Das Ergebnis lag bei allen Generatoren bei 14,56 Prozent sämtlicher generierter Bilder. Das zeigt den Forschenden, das bisher bestehende Filter, die einen solchen Missbrauch verhindern sollten, nicht ausreichend sind.

In ihre Studie stellen sie daher verschiedene Maßnahmen vor, um dem entgegenzuwirken. Unter anderem konnten die Entwicklerinnen und Entwickler etwa die Trainingsdaten in der Trainings- und Abstimmungsphase kuratieren. Oder die Eingabeaufforderungen der Userinnen und User regulieren, indem "unsichere" Schlüsselwörter entfernt werden.

Links/Studien

Psychological Science: AI Hyperrealism: Why AI Faces Are Perceived as More Real Than Human Ones

Qu, Yi Qian et al. "Unsafe Diffusion: On the Generation of Unsafe Images and Hateful Memes From Text-To-Image Models." (Das Paper wird auf der ACM Conference on Computer and Communications Security vorgestellt.)

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/d0ce5033-42aa-401a-b087-809bb1581e66 was not found on this server.