Desinformation KI-generierte Bilder: Wie kann sich die Gesellschaft gegen Manipulation wehren?
Hauptinhalt
03. April 2024, 11:03 Uhr
Im Netz gibt es viele KI-generierte und auch manipulative Bilder und Videos. Bundesjustizminister Marco Buschmann (FDP) sieht darin eine große Gefahr und plädiert deswegen für eine Kennzeichnungspflicht für KI-generierte Bilder. Desinformationsexperten schlagen aber andere Lösungen vor, um Manipulation durch KI-generierte Bilder zu verhindern.
- Desinformationsexperte Philip Kreißel fordert eine Kennzeichnungspflicht echter Bilder, um sie von KI-generierten abzuheben.
- Deutschland versucht mit Forschungsprojekten gegen Desinformation aus Russland vorzugehen.
- Jonas Fegert vom Forschungsprojekt DeFaktS sieht die sozialen Netzwerke in der Pflicht gegen Desinformationen vorzugehen.
Bilder vermittelten das Gefühl von Authentizität, argumentiert Marco Buschmann. Das könne missbraucht werden. Tatsächlich gibt es in Deutschland derzeit keine gesetzliche Pflicht KI-generierte Bilder zu kennzeichnen.
Wer böswillige Inhalte verbreiten will, etwa um Stimmung im Wahlkampf zu machen, werde sich kaum an eine Kennzeichnungspflicht halten, argumentiert Philip Kreißel. Der Informatiker ist Experte für Desinformation und KI bei der Faktencheck-Plattform "Volksverpetzer".
Er schlägt stattdessen vor, echte Bilder zu kennzeichnen, damit diese sich von KI-generierten Bildern abhöben: "Das ist, glaube ich, ein erfolgversprechenderer Ansatz. Da gibt es auch schon Ansätze von der Industrie. Zum Beispiel von Kameraherstellern oder auch von großen Medienunternehmen, dass die ihre Bilder als echt kennzeichnen und authentifizieren."
Forschungsprojekte zur Erkennung von Desinformationen
Dass mit manipulierten Inhalten im Netz Stimmung gemacht wird, ist nichts Neues. So kommt das Parlamentarische Kontrollgremium des Bundestags in einem aktuellen Bericht zu dem Ergebnis: Russland versucht auf die deutsche Wirtschaft, Politik und Gesellschaft einzuwirken und lanciert dazu umfangreiche Desinformationskampagnen in Medien, sozialen Netzwerken und auf Plattformen.
Der deutsche Staat versucht gegenzuhalten. So finanziert das Bundesbildungsministerium unter anderem das Forschungsprojekt DeFaktS, das Jonas Fegert leitet. Das Team des Politikwissenschaftlers entwickelt KI-basierte Softwarelösungen, die Desinformation in Texten erkennen.
Grundsätzlich sei so etwas auch für Bilder denkbar, sagt Fegert. Er findet den Vorstoß von Justizminister Buschmann interessant, sieht aber vor allem die sozialen Netzwerke in der Pflicht, denn auch diese hätten dazu beigetragen, unsere Gesellschaft zu polarisieren: "Die haben einen Anteil daran und eine Verantwortung dafür, dass unsere Gesellschaft wieder mehr zusammenkommt und Menschen Inhalten vertrauen können und dass die Debatte nicht nur emotionalisiert verläuft."
Mitte März haben die EU-Staaten als ersten Schritt den Artificial Intelligence Act – also die KI-Verordnung – verabschiedet. Bis die gesetzlich voll greift, dauert es aber noch zwei Jahre. Für dieses Jahr mit Europawahl, Kommunal- und Landtagswahlen, aber auch den US-Präsidentschaftswahlkampf kommt das zu spät.
Aufklärung im Umgang mit KI-erstellten Inhalten
Um politische Einflussnahme im Wahljahr einzudämmen, wünscht sich Andreas Dengel vom Deutschen Forschungszentrum für Künstliche Intelligenz daher vor allem, dass man Aufklärung betreibe und Menschen sensibilisiere, sorgsam mit gewissen Inhalten umzugehen.
Stichwort: Künstliche Intelligenz Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Es gibt viele Text-zu-Bild-Generatoren, die auf KI basieren.
Außerdem wünscht Dengel sich: "Dass es auch Hinweise gibt, wie man die Herkunft von solchen Inhalten prüfen kann. Das zweite ist natürlich eine technische Lösung, die längerfristig aufgesetzt werden muss. Die kann als aufdeckende Software arbeiten."
Das könnte man laut Dengel mit spezifischen Wasserzeichen machen: "Die könnten sorgsam in diesen Bildern und Videos versteckt werden, ohne dass man die Bilder sehr verzerrt. Eine Spezialsoftware kann die Codes dann wieder auslesen, um die Echtheit zu überprüfen."
Letztlich brauche es aber einen gemeinsamen Standard von Industrie und öffentlicher Hand, so KI-Experte Dengel. Auf Anfrage von MDR AKTUELL, teilte das Bundesjustizministerium mit, die Kennzeichnungspflicht für KI-generierte Bilder soll Teil der europäischen KI-Verordnung werden. Anbieter generativer KI sollen ihre Systeme so konzipieren müssen, dass Bilder oder Videos mit einem "Wasserzeichen" gekennzeichnet werden.
Dieses Thema im Programm: MDR AKTUELL | Das Nachrichtenradio | 03. April 2024 | 06:50 Uhr
Not Found
The requested URL /api/v1/talk/includes/html/dd26fcba-7720-4c79-9bfc-af8782db7f3d was not found on this server.