Mit KI über KI Wie KI im Journalismus helfen kann – und wo die Grenzen sind
Hauptinhalt
24. September 2024, 05:00 Uhr
Bedrohung für viele Arbeitsplätze oder Lösung für die Probleme unserer Zeit? Ob in Beruf oder Alltag: Künstliche Intelligenz begeistert und polarisiert. Auch im Journalismus ist KI nicht mehr wegzudenken. Ein Blick hinter die Kulissen zeigt, wo KI-Tools von der Themenfindung bis zum sendefertigen Beitrag helfen können – und wo ihre Grenzen sind.
- Wie der MDR den Umgang mit KI regelt.
- Wie KI-Chatbots beim Brainstorming unterstützen können.
- Warum KI-generierte Ergebnisse genau geprüft werden müssen.
Eins vorneweg: Das Denken kann uns Künstliche Intelligenz bei der täglichen Berichterstattung nicht abnehmen. Auf den ersten Blick scheinen Sprachmodelle wie ChatGPT zwar Universalgenies: Von der Suche nach Informationen bis hin zum Formulieren von Texten – die KI ist um keine Antwort verlegen. "In einer Welt voll Datenflut – bringt KI Ordnung – das tut gut!" preist der hauseigene Chatbot MDR GPT die Möglichkeiten seinesgleichen. Der sprichwörtliche Teufel steckt allerdings wie immer im Detail.
Schneller, besser, mehr Reichweite?
Denn was will ich überhaupt von der KI? Mehr Output? Bessere Überschriften? Tiefgründigere Recherchen? Von der Themenfindung bis zum fertigen Online-Artikel, Radio- oder Fernsehbeitrag kann ich mir von verschiedensten KI-Tools Unterstützung suchen. Es gibt KI-Anwendungen, die Stimmen generieren oder auch schlicht vorhandene Stimmen imitieren; es gibt KI-Anwendungen, die ein Foto in Bewegtbild verwandeln; wieder andere können Videosequenzen schneiden.
Die Qualität der Ergebnisse ist dabei ein Thema für sich, auch rechtliche und ethische Fragen sind damit verbunden. Was macht es etwa mit dem Vertrauen von Zuhörerinnen und Zuhörern, wenn Radio-Beiträge von künstlichen Stimmen generiert statt von echten Stimmen eingesprochen werden? Transparenz darüber, wo und wie KI zum Einsatz kommt, ist daher auch zentral in den KI-Richtlinien des MDR verankert: Ausprobieren und Experimentieren sind ausdrücklich erwünscht. Allerdings ist "der Einsatz von KI (...) kein Selbstzweck".
Rein praktisch gibt es aber erstmal eine ganze Palette an neuen Werkzeugen, die selbst jeweils verstanden und bedient werden wollen. Ein fertiger Fernsehbeitrag auf Knopfdruck? So schnell werden wir Journalistinnen und Journalisten (zum Glück) nicht ersetzbar.
Brainstorming mit einer KI
Überhaupt: Schneller geht es mit KI noch lange nicht. Ein einzelnes Ergebnis hat die KI zwar schnell generiert – sei es ein Text, ein Bild oder auch Video. Bis das Ergebnis tatsächlich die erforderlichen Kriterien erfüllt, sind im Zweifelsfall aber viele Prompts durch die KI gerauscht. Prompts sind die Anweisungen, mit denen wir die KI zum gewünschten Ergebnis lenken wollen. Aber mit dem Lenken ist das so eine Sache. Und KI wäre nicht KI, wenn auf dieselbe Frage immer dieselbe Antwort folgen würde.
So können Chatbots etwa bei der Themenfindung wichtige Sparringpartner sein. Gibt es Aspekte oder Argumente, an die ich selbst noch gar nicht gedacht habe? Denn nicht nur KI hat einen sogenannten Bias: Die Daten, mit denen eine KI trainiert wurde, haben einen entscheidenden Einfluss darauf, mit welchen Verzerrungen sie wiederum Antworten gibt. Ob sie etwa Männer für grundsätzlich kompetenter als Frauen hält oder rassistische Vorurteile verstärkt. Umgekehrt kann ich mit geschicktem Prompten die KI aber auch dafür nutzen, eigene fehlerhafte Vorannahmen oder blinde Flecken auszuleuchten.
Brainstorming mit Kolleginnen und Kollegen kann natürlich durch keine KI ersetzt werden – schon allein, um sich eben auf eine gemeinsame Absprache berufen zu können.
KI zwischen Informationsflut und Halluzinationen
Entgegen der anfänglich versprochenen Ordnung kann die KI allerdings auch selbst sehr schnell eine ganz eigene Daten- und Informationsflut generieren. Für die braucht es dann echte Menschen, um Ordnung zu schaffen. Denn egal, ob ich der KI eine inhaltliche Frage stelle oder um Formulierungshilfe bitte: Die Ergebnisse wollen in jedem Fall überprüft werden.
Auf die Frage nach wichtigen KI-Institutionen in Thüringen verweist etwa der KI-Chatbot Perplexity unter anderem auf ein "Zentrum für Künstliche Intelligenz (ZKI)" an der Friedrich-Schiller-Universität Jena. Dort gibt es aber kein ZKI. Eine Google-Suche verweist dagegen an die Zentren für Kommunikation und Informationsverarbeitung e.V. (ZKI) in Berlin. Immerhin auch in Jena ist das ZAKI (Zentrum für angewandte künstliche Intelligenz) – allerdings an der Ernst-Abbe-Hochschule. Die KI-generierte Antwort war also eine klassische Halluzination.
Das Motto "Fake it till you make it" haben KI-Chatbots tief verinnerlicht und setzen auch fehlerhafte Informationen zu einer Antwort zusammen, ohne rot zu werden. Immerhin: Höflich sind die Chatbots und reagieren auf Kritik ohne jegliche Empfindlichkeit. "Verständlich, dass Sie nach unabhängigen Experten suchen", schreibt mir beispielsweise der Chatbot Copilot, als ich ihn für seinen ersten Vorschlag kritisiere. Als Inspirationsquelle bleiben Chatbots aber eine wichtige Ergänzung zu bisherigen Werkzeugen bei der Recherche.
Dieses Thema im Programm: MDR AKTUELL TV | 24. September 2024 | 21:45 Uhr