Unter der Lupe – die politische Kolumne ChatGPT und Co: Warum wir uns vor künstlicher Intelligenz schützen müssen

23. April 2023, 13:23 Uhr

Der Papst im Daunenmantel, Ex-US-Präsident Trump prügelt sich Downtown mit Polizisten, Putin kniet vor Chinas Präsidenten Xi – all das ist nicht passiert – trotzdem gibt es davon realistisch anmutende Fotos im Internet. Texte, Fotos und Videos, erzeugt durch künstliche Intelligenz, so genannte Deepfakes sind längst kein drolliges Kunstprojekt mehr, sondern eine Gefährdung für Berichterstattung, Fakten und demokratische Gesellschaften, findet Torben Lehning.

Die rasante Entwicklung von Künstlicher Intelligenz (KI) und Deepfake-Technologie hat in den letzten Jahren zu wachsender Besorgnis geführt. KI und Deepfakes können verwendet werden, um täuschend echte Bilder, Videos und Audioaufnahmen zu erstellen, die schwer von der Realität zu unterscheiden sind. Dies birgt eine ernsthafte Bedrohung für die Gesellschaft, da Deepfakes verwendet werden können, um falsche Informationen zu verbreiten, Personen zu erpressen oder politische Manipulationen durchzuführen.

ChatGPT Künstliche Intelligenz

Die Welt steht Kopf

Ab jetzt schreibe ich mal weiter. Denn den ersten Absatz dieses Artikels habe nicht etwa ich, der Autor dieses Textes, geschrieben, sondern ChatGPT.  Das ist eine künstliche Intelligenz (KI), die offenkundig mehr kann, als nur Texte zu generieren, die auf den ersten Blick klar und verständlich Informationen vermitteln. Selbstkritik und Analyse bekommen wir gleich frei Haus mitgeliefert – wie selbstlos. Hätten Sie den Unterschied gemerkt?

Die Erstellung dieses Textes hat mich dabei lediglich 5 Sekunden Lebenszeit gekostet. Ich habe "schreibe einen Teaser für einen Artikel über Deepfakes und künstliche Intelligenz", in ein Suchfeld eingegeben und Schwups, da war mein Text. Hätte ich mir von der KI ein 20-minütiges Referat für den Job oder ein Schulreferat gewünscht, hätte ich auch das bekommen – in der gleichen Zeit. Das stellt nicht nur die Welt, die wir kannten, auf den Kopf, sondern uns alle auch vor immense Herausforderungen. Denn wie Chat GPT uns freigiebig verraten hat, kann man mit der KI auch Meinung manipulieren.

KI macht Politik

KIs können mehr als nur Satzstücke und Interpretationen stochastisch zusammenwürfeln. Video-, Bild- und Audio-KIs treiben das Bastelspiel mit der Authentizität auf die Spitze. Nahezu wöchentlich jagt zurzeit eine Meldung über KI-generierte Fälschungen die nächste. Ein stylisch-lässig gekleideter Papst mit weißem Daunenmantel und Goldkette in Hip-Hop-Manier wirkt irgendwie putzig, nicht beängstigend.

Anders sieht es da schon aus, wenn ein gefälschter Klitschko Berlins amtierende Bürgermeisterin Giffey per Video-Anruf kontaktiert, um ihr Informationen zu entlocken oder wenn ein ebenso falscher ukrainischer Präsident Selenskyj die Kapitulation seines Landes verkündet. Beides ist bereits passiert – willkommen in der Matrix.

AfD nutzt KIs

Auch in Deutschland wird mit KI-Hilfe Politik gemacht. So postet der stellvertretende Chef der AfD-Fraktion im Bundestag, Norbert Kleinwächter, kürzlich ein Foto auf Instagram, auf dem ein aggressiver Mob schreiender Männer mit ausländischem Aussehen abgebildet ist. Darunter prangt der Schriftzug: "Nein zu noch mehr Flüchtlingen!". Die Foto-Fälschung ist bei genauem Hinsehen als solche zu erkennen. So hat zum Beispiel einer der Flüchtlinge sechs Finger, andere haben deformierte Gesichter und Köpfe. Kritikerinnen und Kritiker werfen Kleinwächter gefährliche Meinungsmache vor, weil er etwas zeigt, was so nie stattgefunden hat und damit Stimmungsmache betreibt. Viele finden das demokratiegefährdend.

Kleinwächter reagiert gelassen. Er habe ein KI erstelltes Foto einem echten Foto vorgezogen, weil er keine Persönlichkeitsrechte verletzen wollte und um keine Steuergelder für den Kauf von ähnlichen Motiven zu verbrauchen, so Kleinwächter.

Günstiger, schneller, und bald unfehlbar?

Beide Argumente des AfD-Politikers sind aus ökonomischen Gesichtspunkten durchaus nachvollziehbar. Die Bildrechte für ein echtes Foto sind teuer, es zu suchen kostet Zeit. Dass Kleinwächters Flüchtling nicht aus einem Drittstaat, sondern einer zweitklassigen KI kommt und sechs Finger hat, fällt den unbedarften Instagram-Userinnen und -Usern nicht direkt auf. Expertinnen und Experten sind sich sicher, dass die lernenden Computer-Systeme derlei Fehler in wenigen Jahren ausgemerzt haben dürften. Dann werden Fälschungen nicht mehr so einfach von der Realität zu unterscheiden sein.

Das Ende der Fakten

Wer sagt uns dann, was wahr und was falsch ist? Es ist ja nicht so, als ob unsere aktuellen Fake-News-Debatten nicht auch ohne KI-generierte Bilder schon pikant genug wären. Wenn schon heute ein beträchtlicher Anteil der US-amerikanischen Wahlbevölkerung die Ansicht vertritt, die Anklagen gegen ihren Ex- und vielleicht bald wieder Präsidenten Donald Trump seien Fake-News, wie viele Leute werden das dann wohl denken, wenn ihnen eine KI perfekt gefälschte Interviews und Dokumente liefert, die Trumps Unschuld belegen?

Wenn Verschwörungstheoretiker und Antisemit Atilla Hildmann von einer elitären Weltverschwörung spricht, sind die meisten Leserinnen und Leser dieses Artikels wahrscheinlich äußerst skeptisch. Was würde aber passieren, wenn Ihnen Karen Miosga, Susanne Daubner und Markus Lanz die Existenz einer solchen Weltverschwörung in erstklassiger Video-Qualität bestätigen würden?

Wilder Westen im World Wide Web

Die Bundespolitik reagiert bislang mit der Reaktionsschnelligkeit eines 56k-Modems, aus den späten 90ern, mit anderen Worten: Sehr langsam! Die Strategie, auf einheitliche europäische Regeln im Umgang mit künstlicher Intelligenz zu pochen, leuchtet ein, doch der Gesetzgebungsprozess auf EU-Ebene zieht sich bereits seit zwei Jahren hin und soll voraussichtlich erst 2025 abgeschlossen werden. Bis dahin droht mal wieder digitalrechtlich der Wilde Westen im World Wide Web. Das könnte zulange dauern und demokratischen Gesellschaft maßgeblich schaden.

Zunächst braucht es eine Debatte darüber, ob wir bestimmte künstliche Intelligenzen generell verbieten wollen. Italien geht diesen Weg mit dem Textprogramm ChatGPT. Ich halte das für keine gute Idee. Die technischen Errungenschaften aus unserem Alltag zu verbannen, könnte sich als falsch erweisen. Die Zukunft gehört der geschickten Einbindung von KIs – egal ob in Betrieben, Behörden oder unserer Mobilität. Es gilt Regeln aufzustellen, bevor wir Gesetzmäßigkeiten unterworfen sind, die sich nicht wieder einholen lassen und von anderen aufgestellt wurden.

Was wir brauchen

Von KIs erstellte Texte, Videos und Fotos können mit digitalen Wasserzeichen versehen werden. Anbieter von KI-Software müssen dazu verpflichtet werden, ihre Erzeugnisse mit Seriennummern kenntlich zu machen.

Weiter muss es möglich sein, die Algorithmen und somit die Entscheidungsgrundlagen der KIs offen einsehbar überprüfen zu können. Ohne Quellenangabe keine rechtliche Freigabe. Informationen müssen überprüfbar bleiben. Außerdem sollten etwaige rassistische oder sexistische Kategorisierungen von KIs kein unabänderliches Betriebsgeheimnis sein dürfen.

Wo bleibt das Schulfach Mediennutzung? Wo bleiben Zeit und Raum für medienpolitische Aufklärung? Nicht nur Kinder und Jugendliche brauchen mehr medienpolitische Bildung, es braucht auch deutlich mehr Angebote für Erwachsene. Gerade letztere haben sich in der Vergangenheit allzu oft von Maschinen hinters Licht führen lassen. Insbesondere dann, wenn das gefälschte Angebot ihrer eigenen politischen Einstellung entsprach.

Bildcollage mit dem Titel des Beitrags und den Protagonisten Benjamin Bigl und Alexander Sängerlaub. Diverse Medien werden stilisiert angedeutet. 11 min
Bildrechte: MDR MEDIEN360G / Fotos: Swen Reichhold (B. Bigl), Florian Görner (A. Sängerlaub)
11 min

Neben den Grundkompetenzen Lesen, Schreiben und Rechnen wird eine weitere Kompetenz immer wichtiger: Die Medienkompetenz. Aber was bedeutet das eigentlich?

11:29 min

https://www.mdr.de/medien360g/medienwissen/medienkompetenz-wie-wenig-deutsche-ueber-medien-und-journalismus-wissen-100.html

Rechte: MDR MEDIEN360G

Video

Medienhäuser, Journalistinnen und Journalisten dürfen nicht darauf vertrauen, dass Parteien, Verbände und Software-Anbieter sich an die Regeln halten. Es braucht eine Überprüfung von Video- und Bildmaterial, die nicht allein KI-gestützt abläuft. Außerdem müssen Medienhäuser garantieren, dass die von ihnen verwendeten Bilder und Texte einen Absender aus Fleisch und Blut hatten. Das wird viel Zeit, Personal und Ressourcen kosten, ist aber notwendig. Ohne Unterscheidung zwischen intersubjektiv nachvollziehbaren Fakten und reiner Erfindung, gerät alles aus den Fugen. Das muss uns unsere Demokratie wert sein.

Nationale Regulierung jetzt

KIs vorerst national zu regulieren, könnte sich als vorteilhaft erweisen. Damit bis 2025 zu warten, wäre mehr als fahrlässig. Sonst dürften sich bald viele Lehrerinnen und Lehrer fragen, warum ihre Schützlinge so einheitlich gute Hausaufgaben abliefern. Das wäre wohl aber unser geringstes Problem. Ohne menschliche Kontrolle durch Recht und Gesetz, sind KIs für uns die falsche Gesellschaft.

Dieses Thema im Programm: MDR SACHSEN-ANHALT – Das Radio wie wir | 09. April 2023 | 07:10 Uhr

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/9e283e89-402e-482a-b7ff-3e2d49a4b07d was not found on this server.

Mehr aus Politik

Mehr aus Deutschland

Nachrichten

Ein Mann lächelt in die Kamera. 1 min
Bildrechte: Andreas Franke

Nachrichten

Porträt Olaf Feuerborn 1 min
Bildrechte: MDR/Engin Haupt