Künstliche Intelligenz Für Fake-Bilder braucht es kein grafisches Können mehr
Hauptinhalt
28. März 2023, 16:47 Uhr
Donald Trump mit sechs Fingern an einer Hand, logische Fehler bei Kleidung oder sinnfreie Schriftzüge - genaues Hinschauen kann manche Bildfälschung enttarnen, die Künstliche Intelligenz erstellt hat. Doch die Technik schreitet rasant voran. Fachleute sehen besonders bei der Medienbildung Nachholbedarf.
- KI kann komplett neues Motiv in wenigen Minuten erstellen.
- Recherche nach Kontext oder Urheberin von Bild ist oft sinnvoll.
- Man sollte Bilder kritisch hinterfragen statt sie vorschnell weiter zu verbreiten.
Russlands Präsident Wladimir Putin, der unterwürfig vor Chinas Präsident Xi Jinping niederkniet; Ex-US-Präsident Donald Trump, der mit Polizeikräften gegen seine Festnahme ringt oder der Papst in weißem Daunenmantel nach Rapper-Attitüde – in sozialen Netzwerken gingen zuletzt gleich etliche Bildfälschungen viral. Zumindest auf den ersten Blick wirken die Bilder täuschend echt. Erstellt worden sind die Fotos von Software, von künstlicher Intelligenz, kurz KI.
Wenn es schnell läuft, ist ein solches Bild von der KI innerhalb von zwei Minuten erstellt.
Fälschungen gibt es schon so lange es Bilder gibt. Neu ist, dass für Bildfälschungen kein grafisches oder anderweitiges Können mehr notwendig ist, erklärt Experte Jo Bager vom c’t Magazin. "Wenn es schnell läuft, ist ein solches Bild von der KI innerhalb von zwei Minuten erstellt", sagt er MDR AKTUELL. Während bisher etwa bestehende Bilder für manipulative Zwecke in neue Zusammenhänge gesetzt oder mit einigem Aufwand zu Fälschungen mit jeweils beabsichtigter Aussage bearbeitet wurden, kann künstliche Intelligenz inzwischen ein komplettes Motiv selbst erstellen – wie beispielsweise Trump, der vor Polizisten davonrennt oder gegen seine Festnahme heftig protestiert.
Genaues Hinschauen lohnt sich häufig – noch
Gerade bei Personen des öffentlichen Lebens kann die KI dazu auf eine Fülle an Material aus dem Internet zurückgreifen, aus der sie dann etwas völlig Neues – frei Erfundenes – erstellt. Noch entstehen dabei immer wieder logische Fehler, die sich bei genauem Hinsehen erkennen lassen. Typische Merkmale zeigen sich laut Bager etwa bei menschlichen Gesichtern, Ohren seien manchmal komisch verwachsen mit dem Rest oder die Haut sehe mehr nach einer seltsamen Fläche aus, als tatsächlich nach der Struktur von Haut. Ebenso passieren bei bildlich dargestellten Texten häufig Fehler. "Da lohnt es sich mitunter, ins Bild reinzuzoomen um zu gucken: Ist das wirklich Text einer Sprache, die man kennt? Oder hat sich die KI da Text ausgedacht?"
Auch bei einer Serie von gefälschten Trump-Bildern, die der Gründer des Verifikations-Kollektivs "Bellingcat", Eliot Higgins, auf Twitter teilte, lassen sich solche Fehler nachvollziehen. Denn gerade Fälschungen dürften eher selten mit Hinweisen versehen sein wie #Parodie oder – im Fall von Higgins Twitter-Thread – eindeutigen Kommentaren wie "Bilder von Trump machen, wie er verhaftet wird, während ich auf Trumps Verhaftung warte".
Auch mit Händen tut sich Künstliche Intelligenz noch mitunter schwer – und hat dem falschen Trump, der in Sträflingskleidung Gewichte hebt, prompt einen Finger zu viel verpasst.
Auf einer anderen Fälschung, in der Trump Basketball zu spielen scheint, trägt er erstaunlicherweise ein Anzughemd unter seiner Sträflingskleidung. Auch die Ärmel von linkem und rechtem Arm sind nicht stimmig, bei dem Spieler hinter ihm hat sich ein Fehler bei den Beinen eingeschlichen.
Ein Bild, das Trump in Konfrontation mit einem Polizisten zeigen soll, hat nicht nur dem ehemaligen US-Präsidenten eine seltsam unförmige linke Hand verpasst. Zwischen den Armen des Polizisten ragt noch der Teil einer Hand hervor, die nirgends hinführt.
Wieder eine andere Fälschung der KI zeigt einen Wasserstrahl, der aus der Fassade eines Geschäfts zu kommen scheint – das wiederum mit "WORTRKE" einen nicht plausiblen Namen trägt. Logische Unstimmigkeiten ergeben sich zudem bei den Autos im Hintergrund, die teils unvollständig erscheinen und von denen das vorderste bei konsequenter Fortsetzung mit dem Kofferraum im Schaufenster stehen dürfte.
Mehr Informationen zu einem Ereignis suchen
Doch nicht immer sind Bildfehler so offensichtlich und die Technik entwickelt sich rasant weiter. Dabei gehe es den jeweiligen Unternehmen wie KI-Entwickler Midjourney gar nicht in erster Linie um Fälschungen, erklärt Jo Bager. Vielmehr gehe es darum, möglichst schöne, bunte und vielfältige Bilder zu erzeugen. "Wenn man mit diesen KI-Werkzeugen fotorealistische Bilder machen kann, ist das nur ein Aspekt von ganz vielen. Aber generell leisten sich die Unternehmen da gerade ein unglaubliches Wettrennen darum, wer am weitesten vorne ist und wer die schönsten Bilder macht."
Generell leisten sich die Unternehmen gerade ein unglaubliches Wettrennen darum, wer am weitesten vorne ist und wer die schönsten Bilder macht.
Auch wenn ein Bild keine anatomischen Fehler oder andere offensichtlichen Unstimmigkeiten enthält, ist also Vorsicht geboten. Bei Personen des öffentlichen Lebens kann beispielsweise über die Rückwärts-Bildersuche von Suchmaschinen wie Google geschaut werden, ob das Bild noch an anderer Stelle auftaucht und ob sich etwa Hinweise zum Urheber finden. "Wenn es das nicht gibt, spricht sehr viel dafür, dass es von einer KI erstellt worden ist", erklärt Bager.
Medienbildung gewinnt an Bedeutung
Ein besonders hohes Risiko sieht Bager bei Fälschungen, die nicht Bilder des öffentlichen Lebens abbilden. So könne man etwa mithilfe von Künstlicher Intelligenz einen vermeintlich ausländischen Menschen mit Messer durch eine deutsche Innenstadt gehen lassen. "Ich kann dieses Bild schnell erzeugen und damit auch ganz schnell eine bestimmte Stimmung unter den Leuten erzeugen, die das nicht unbedingt sofort verifizieren."
Zwar kann in solchen Fällen beispielsweise ein Blick auf offizielle Kanäle der Polizei und örtlicher Medien Hinweise geben, ob tatsächlich eine Bedrohungslage besteht. Doch gerade Bilder, die das eigene Weltbild zu bestätigen scheinen oder besonders kontroverse Inhalte transportieren, sollten zunächst kritisch hinterfragt und geprüft werden. "Es braucht da vor allem Aufklärung, dass es diese technischen Mittel gibt, die sich missbrauchen lassen", betont Bager.
Auch die Tools zum Erkennen von Fälschungen entwickeln sich laufend fort. Doch inzwischen ist es teils einfacher, ein Bild zu fälschen als die Fälschung zu enttarnen. Um ein Bild sorgfältig zu überprüfen, können neben technischen Tools weitere Recherchen notwendig sein. Denn was nicht eindeutig Fake ist, ist nicht automatisch wahr.
MDR (rnm)
Dieses Thema im Programm: MDR AKTUELL | Das Nachrichtenradio | 20. März 2023 | 12:00 Uhr
Not Found
The requested URL /api/v1/talk/includes/html/ab943949-b9e5-46c4-b159-3e0b5cac672a was not found on this server.