Stilisierte Grafik: Ein Roboter sitzt vor einem Geburtstagskuchen.
ChatGPT brachte den Durchbruch für den alltäglichen Einsatz von Künstlicher Intelligenz. Auch die Medienbranche hat sich im Jahr 2023 intensiv mit dem Thema beschäftigt. Bildrechte: MDR MEDIEN360G

Kolumne: Der Altpapier-Jahresrückblick am 29. Dezember 2023 Das erste KI-Jahr

29. Dezember 2023, 00:01 Uhr

Der Durchbruch von ChatGPT hat im vergangenen Jahr den Fortschritt Künstlicher Intelligenz stark vorangebracht – auch im Journalismus. Ein Blick auf die größten KI-Fails 2023, die KI-Richtlinien der Medienhäuser und die aktuellsten Entwicklungen in der Branche. Ein Jahresrückblick von Johanna Bernklau.

Das Altpapier "Das Altpapier" ist eine tagesaktuelle Kolumne. Die Autorinnen und Autoren kommentieren und bewerten aus ihrer Sicht die aktuellen medienjournalistischen Themen.

KI-Fails im Journalismus

Der Papst in Daunenjacke ist das erste, was mir einfällt, wenn ich an Künstliche Intelligenz im vergangenen Jahr denke. Im März, etwa fünf Monate nach dem Durchbruch von ChatGPT, ging das Fake-Foto von Papst Franziskus auf Social Media viral und war – zumindest für mich – die erste Realisierung, wie viel Unheil Künstliche Intelligenz tatsächlich anrichten kann.

Seitdem ist viel passiert, vor allem wurde viel ausprobiert: Technik-Nerds sowie Technik-Laien haben ChatGPT allen möglichen Sinn und Unsinn gefragt und ebensolchen als Antwort zurückbekommen. Redaktionen genauso.

Wie zum Beispiel die Illustrierte "Die Aktuelle" von der Funke Mediengruppe: Im April veröffentlichte sie ein Fake-Interview, das sie angeblich mit dem ehemaligen Formel-1-Rennfahrer Michael Schumacher geführt hatte, der seit seinem schweren Skiunfall von der medialen Bildoberfläche verschwunden ist. Nur sehr versteckt erfuhr man dann auf der entsprechenden Seite, dass das Interview mit einer KI und nicht mit Michael Schumacher geführt wurde.

Die Aktion blieb nicht ohne Konsequenzen: Die Familie Schumacher kündigte rechtliche Schritte gegen "Die Aktuelle" an, Chefredakteurin Anne Hoffmann wurde gefeuert und es folgte eine Rüge vom Presserat.

KI-Richtlinien der Medienhäuser

Ein Interview mit einer KI führen und es als ein anderes ausgeben, ist also schonmal nicht so gern gesehen – check. Wie sieht es mit einer Rezepte-Zeitschrift aus, die von Künstlicher Intelligenz erstellt und nicht entsprechend gekennzeichnet wurde? Oder einer KI-Autorin für journalistische Texte? Dazu kommen wir noch.

Was genau ethisch und rechtlich im Umgang mit Künstlicher Intelligenz erlaubt ist, dazu gibt es noch keine offiziellen Regeln. Der Deutsche Journalistenverband (DJV) hat sich im April dazu Gedanken gemacht und kurz nach dem "Die Aktuelle"-Fall ein Positionspapier zum Einsatz von KI im Journalismus veröffentlicht.

Eine Analyse der größten Medienunternehmen Deutschlands zeigt, wie weit Mediendeutschland den aktuellen KI-Entwicklungen hinterherhinkt: Nur vier der elf öffentlich-rechtlichen Anstalten haben Richtlinien zum Umgang mit Künstlicher Intelligenz bzw. diese transparent veröffentlicht (ZDF, SWR, BR, WDR).

Bei den Verlagen ergibt sich ein gemischteres Bild: Ippen Media, "Spiegel", "Süddeutsche Zeitung", "Welt" und "taz" haben bereits Beiträge zu ihrem redaktionsinternen Umgang mit Künstlicher Intelligenz veröffentlicht – im Gegenteil zu "Zeit", "F.A.Z.", "Bild" und Funke (letzteres dürfte nicht überraschen). Auch die dpa und "Reporter ohne Grenzen" haben sich in diesem Jahr auf KI-Regeln geeinigt.

Spannend ist, dass sich der BR schon Ende 2020 eigene KI-Richtlinien gegeben hat, während die anderen Medienhäuser alle erst in diesem Jahr darauf gekommen sind.

Doch nur Richtlinien um der Richtlinien Willen bringt den Journalismus nicht unbedingt weiter. Die konkreten Ausarbeitungen der Medienhäuser sind tatsächlich sehr unterschiedlich. Am konkretesten ausgearbeitet finde ich die Grundsätze von BR und SWR – die von ZDF, Ippen Media und dpa sind meiner Meinung nach am schwächsten.

Vergleicht man die KI-Grundsätze miteinander, fällt aber auf, dass allen Häusern besonders drei Punkte wichtig sind.

Erstens: Transparenz. Ob, wann und wie KI zum Erstellen bestimmter Inhalte genutzt wird, wird transparent und offen nach außen kommuniziert. Zweitens: Redaktionelle Kontrolle und Verantwortung. Bevor ein mit KI erstellter Inhalt veröffentlicht wird, sind Redakteure (und damit echte Menschen) dafür verantwortlich, den Inhalt zu prüfen. Drittens: Journalistische Grundregeln. Egal ob mit KI oder ohne – die grundlegenden journalistischen Regeln und Werte müssen eingehalten werden.

Ethische Fragen

Nochmal zurück zum gefakten Schumacher-Interview, denn in diesem Fall hat sich die Redaktion ja nun ausdrücklich nicht an journalistische Werte gehalten. Medienwissenschaftlerin Christina Elmer antwortet im Gespräch mit dem Deutschlandfunk auf die Frage, dass eine Person ein solches Interview ja auch hätte faken können:

"Das war auch mein erster Gedanke – ich bin in dem Jahr geboren, in dem die Hitler-Tagebücher waren und das hätte Herr Kujau [Maler, der die Tagebücher fälschte] genauso gefälscht, habe ich zuerst gedacht. […] Aber ich sehe schon auch gerade das neue Niveau, dass das Thema hat. Die Versuchung ist möglicherweise größer als früher, weil es sich möglicherweise echter anfühlt. Aber das [Interview] einfach abzudrucken und nicht klarzumachen, auf was man sich hier einlässt, ist aus meiner Sicht eher ein medienethisches Problem als ein technologisches."

Währenddessen liest sich das KI-Positionspapier des DJV allerdings sehr so, als hätte man tatsächlich vor allem Angst vor der Technologie und deren Machern:

"Keinesfalls darf es dazu kommen, dass 'Kollege KI‘ Redakteurinnen und Redakteure ersetzt."

"So wie Menschen im Straßenverkehr vor selbstfahrenden Autos geschützt werden müssen, muss auch im Bereich des Journalismus der unkontrollierte Einsatz Künstlicher Intelligenz verhindert werden."

"Ferner müssen Journalistinnen und Journalisten vor der unkontrollierten Ausnutzung ihrer Arbeit durch KI-Anwendungen geschützt werden."

Das sind valide Punkte, die ernst genommen werden müssen und große Konsequenzen haben, wenn dem nicht so geschieht. Jedoch fehlt hier ein wenig der "differenzierte Umgang mit Künstlicher Intelligenz", wie der DJV es selbst im ersten Satz schreibt. Die Chancen, die KI dem Journalismus eröffnet, kommen im Papier zu kurz.

Genutzt wird Künstliche Intelligenz nämlich in den meisten Medienhäusern mit der Begründung, den eigenen Arbeitsablauf zu erleichtern und den Wert für die Rezipienten so zu erhöhen (laut den KI-Grundsätzen der Medienhäuser). Aber: In nur etwa der Hälfte der Richtlinien ist ausdrücklich festgehalten, dass KI journalistische Arbeitskräfte nicht ersetzen kann und wird.

KI statt Journalisten oder KI-Journalisten?

Nicht explizit erwähnt hat das unter anderem die "Welt" – das überrascht nicht, wenn man bedenkt, mit welchen Schlagzeilen der Axel Springer Verlag im vergangenen Jahr so aufwartete.

28.02.: "Springer-Verlag kündigt Stellenabbau an" (Spiegel)

09.06.: "Axel Springer plant KI-Offensive" (Spiegel)

19.06.: "Bild-Zeitung entlässt mehr als 200 Mitarbeiter: KI hält Einzug" (F.A.Z.)

08.12.: "Springer will Mitarbeiter von Nachrichten-App Upday durch KI ersetzen" (SZ)

Damit gehört der Verlag zu denen, die die größte Sorge von Journalisten zur Realität werden lassen: KI statt Journalisten. Springer-Verlagschef Mathias Döpfner sieht die Zukunft mit KI nämlich radikal schwarz-weiß ("Es geht um alles oder nichts") und hat im Zuge der angekündigten Entlassungen erklärt, dass nicht nur Print-Zeitungen künftig von KI gelayoutet und Print-CvDs von KI ersetzt werden sollen (Altpapier) – sogar KI-basierte Chefredakteure in Gestalt von Avataren sind für Döpfner in naher Zukunft denkbar (Altpapier).

Auch der Kölner "Express" hat eine, sagen wir, spannende Herangehensweise, was das Thema angeht: Stichwort Klara Indernach. Ihr Autorinnenprofil gleicht dem der anderen Autoren bis auf zwei Details: Das Foto ist nicht echt und die Person ist es auch nicht. Wenn über einem Artikel (etwa diesem hier) der Vermerk "Klara Indernach (KI)" steht, fällt Unwissenden erstmal nichts auf. Nur für diejenigen, die tatsächlich auf das Autorinnenprofil klicken (und wer bitte macht das regelmäßig?), ist erkennbar, dass es sich bei Klara Indernach um eine Künstliche Intelligenz handelt, die regelmäßig Artikel für den Kölner "Express" schreibt.

Dass Maßnahmen wie Klara Indernach oder die Entlassungen bei Springer neben Geld vor allem auch Kreativität und Vielfalt sparen, sei hier nur mal am Rande erwähnt.

Medienwissenschaftlerin Christina Elmer schätzt die Zukunft der journalistischen Jobs so ein, dass es viele Produkte und Formate geben werde, die hybrid entstehen. Menschen werden nach wie vor die Verantwortung tragen und etwa Nachrichtenticker der Künstlichen Intelligenz in erster Instanz überlassen.

"Aber da, wo der Journalismus gesellschaftlich besonders relevant wird, wenn es um investigative Recherchen, wenn es um Perspektiven geht, die wir im Journalismus zeigen möchten, um Reportagen, um Interviews, das sind alles auch Empathie geleitete Formate, bei denen ich wirklich kein KI-System am Ruder sehen möchte."

Deep-Fake-News

Während an der einen Stelle die Arbeit wegen KI wegfällt, fällt an anderer Stelle wegen KI mehr Arbeit an: Factchecking-Formate wie das von "Correctiv" oder vom BR werden in Zukunft immer mehr damit beschäftigt sein, gefakte Fotos, Videos und Inhalte als solche zu enttarnen. Generative KI-Modelle entwickeln sich schnell weiter und machen es immer leichter, sogenannte Deepfakes zu erstellen.

Interessanterweise stellt die Bedrohung dieser Technologie aber aktuell noch nicht das größte Problem im Factchecking dar, wie "Correctiv"-Faktenprüferin Sarah Thust in diesem zapp-Film zu KI im Journalismus erklärt:

"Die Sachen, die sich sehr viral verbreiten sind oft viel, viel simplere Fakes als KI-generierte Bilder. Das sind z.B. gefälschte Zeitungsartikel [oder] Videos, die im falschen Kontext verbreitet werden."

Blickt man in die Zukunft, wird Thusts Job trotzdem nur noch wichtiger werden. Auch jetzt schon spuckt etwa ChatGPT wilde Storys aus, erfindet Quellen und liegt bei simplen Fragen schlicht falsch. Christina Elmer sagt dazu dem Deutschlandfunk:

"Wenn immer mehr solche synthetischen Inhalte im Umlauf sind, dann wird irgendwann auch die einzelne Quelle und die vertrauenswürdige, vielleicht auch die Medienquelle, viel wichtiger und da können wir, wenn wir das Vertrauen bis dahin gesellschaftlich nicht verspielt haben, auf jeden Fall eine gute Quelle sein."

Chancen für den Journalismus

In eine ähnliche Kerbe schlägt auch Medienkritikerin Nadia Zaboura im Gespräch mit WDR 3. Sie stellt die Frage, die sich Journalisten gerade jetzt stellen sollten:

"Was ist eigentlich unsere Kernkompetenz? Was zeichnet uns als Qualitätsjournalismus eigentlich noch aus? Nicht: Wo sind wir verwechselbar, sondern: Wo sind wir unique, wo sind wir einzigartig?"

Zabouras Gesprächspartnerin, die Wissenschaftsjournalistin Manuela Lenzen, zieht den Vergleich zur Corona-Zeit. In den USA sei während Corona zumindest in Teilen zu erkennen gewesen, dass wieder mehr Menschen Abos bei Qualitätsmedien abschlossen, um in unsicheren Zeiten mit vielen Fake News eine sichere Quelle zu haben.

Doch auch abgesehen von der schweren Zukunftsfrage, was eigentlich aus KI und dem Journalismus werden soll, gibt es auch eine leichtere: Mit KI kann man im Journalismus auch einige coole Sachen machen.

Umfangreiche Datenanalysen durchführen zum Beispiel. Oder neue Methoden für investigative Recherchen entdecken. Recherchematerial archivieren, Kommentarspalten von Hass und Falschnachrichten befreien, Regionalität von Hörfunk stärken.

Macht uns Künstliche Intelligenz am Ende einfach zu besseren Journalisten mit mehr Möglichkeiten, wenn wir sie durchdacht einsetzen?

Der Altpapier-Jahresrückblick 2023

Stilisierte Darstellung mehrerer Logos von großen Internetkonzernen.
In seinem Jahresrückblick schaut Kolumnist Christian Bartels darauf, was das Jahr 2023 für die großen Online-Plattformen gebracht hat. Bildrechte: MDR MEDIEN360G | Foto: Panthermedia
Stilisierte Darstellung von mehreren Armen, die alle in eine Richtung zeigen.
Die öffentlichkeitswirksamen Medienberichte über die Fälle Lindemann und Ofarim lösten im Jahr 2023 Diskussionen über die Verdachtsberichterstattung aus. Bildrechte: MDR MEDIEN360G | Foto: Panthermedia
Ein Mann sitzt vor einer Schreibmaschine und blickt kritisch auf das bisher Geschriebene.
Heizungsgesetz und Bürgergeld. 2023 war auch das Jahr der Verbreitung von Halb- und Unwahrheiten, findet Kolumnist René Martens. Bildrechte: MDR MEDIEN360G | Foto: Panthermedia
Stilisierte Darstellung eines Cartoon-Abspanns mit großer "THE END" Aufschrift.
Anne Will, Blendle, Karla: In seinem Jahresrückblick führt Kolumnist Klaus Raab alles auf, was 2023 in der Medienwelt (beinahe) zum Ende kam. Bildrechte: MDR MEDIEN360G | Foto: Panthermedia

Aktuelle MEDIEN360G-Themen

Eine Europa-Karte auf der europäische Länder in drei Farben eingefärbt sind. Die Karte befindet sich unter Sonar-Kreisen, auf denen Zeitungs-, Fernseh- und Radio-Symbole platziert sind. mit Video
Rundfunkbeitrag, Steuer oder beides? Für die Finanzierung des öffentlich-rechtlichen Rundfunks gibt es in Europa unterschiedliche Systeme. Bildrechte: MEDIEN360G
Ein Mann ist in drei Situationen abgebildet: in nachdenkender Pose, mit einem Tablet in der Hand, mit einer Kamera in der Hand. Im Hintergrund ist eine Fernsehregie zu sehen.
Reporter wie Olaf Nenninger arbeiten oft unter Zeitdruck, damit ein Nachrichtenbeitrag noch am selben Tag gesendet werden kann. Bildrechte: MDR MEDIEN360G | Foto: Daniela Dufft