Johannes Sommer über KI "Das menschliche Korrektiv ist wichtig"
Hauptinhalt
08. Februar 2022, 20:51 Uhr
Was ist Künstliche Intelligenz und welche Aufgaben übernimmt die KI schon heute im Journalismus? Werden die klassischen Redaktionen irgendwann durch eine Engine ersetzt? MEDIEN360G sprach mit Johannes Sommer, CEO des Technologieunternehmens Retresco, über textgenerierende Algorithmen und die Zukunft des Journalismus.
Markus Hoffmann: Herzlich willkommen bei MEDIEN360G. In diesem Monat dreht sich bei uns alles um Künstliche Intelligenz im Journalismus oder algorithmusgetriebenen Journalismus oder Robo-Journalismus. Es gibt da ganz viele verschiedene Worte, die da in den letzten Jahren aufgeploppt sind.
Wir wollen mal ein bisschen Licht ins Dunkel bringen und dafür bin ich nach Berlin gefahren. Ich bin bei der Firma Retresco und bei mir ist der Geschäftsführer von Retresco, Johannes Sommer. Schön, dass wir heute hier bei Ihnen sein dürfen.
Johannes Sommer: Hallo! Moin. Schön, dass Sie da sind.
Markus Hoffmann: Gehen wir mal direkt rein zum Thema Künstliche Intelligenz. Das ist ja ein ziemlich breites Spektrum. Herr Sommer, was ist KI oder Künstliche Intelligenz?
Johannes Sommer: Also komplexe Frage, weil schon die Frage ist: Was ist Intelligenz? Im Grundsatz geht es bei Künstlicher Intelligenz darum, dass man Fähigkeiten, zu denen wir unterstellen, dass es menschliche Intelligenz braucht, dass die automatisiert und durch die Maschine erfüllt werden oder nachgeahmt werden.
Markus Hoffmann: Man hört dann Künstliche Intelligenz, man hat den Begriff Algorithmus, man hört den Begriff Deep Learning. Können Sie mal ganz kurz ein bisschen auflösen, aufdröseln, was da die Unterschiede sind?
Johannes Sommer: Na ja, zunächst mal gibt es ganz viel, wo man meint, da ist Künstliche Intelligenz dahinter, weil quasi eine Entscheidung eines Computers oder einer Maschine nachgeahmt wird. Aber was dahinter steckt sind tatsächlich von Menschen programmierte oder entwickelte Systeme, die tatsächlich nur den Eindruck erwecken, als würde da irgendeine Entscheidung automatisch getroffen werden oder irgendetwas automatisch passieren.
Im Prinzip ist es ganz einfach, ein Algorithmus ist an sich ja eine definierte Schrittfolge, wie ich zu einem Ergebnis komme. Und wenn ich wirklich (eine) Künstliche Intelligenz (habe), dann gebe ich diese Schrittfolge nicht vor. Und sie ist nicht vom Menschen durch ein Regelwerk definiert, sondern ich habe Input-Daten, die ich rein gebe, und ich habe einen erwünschten Output. Und ich definiere eben nicht menschlich, was passiert da zwischendrin, sondern die Maschine. Der Computer macht das selbstständig.
Und durch Feedback trainiere ich im Prinzip, komme ich tatsächlich zu dem gewünschten Ergebnis. Das heißt, ich sage nicht, wie kommt die Engine dahin oder die Maschine, sondern ich gebe immer nur Feedback: Kommt es dem Ergebnis näher oder nicht? Und korrigiere, habe ich eigentlich die Information von vornherein gegeben oder die Daten, die es braucht, um überhaupt zum richtigen Ergebnis kommen zu können? Das heißt, am Ende ist es dann KI, wenn tatsächlich etwas passiert, was nicht durch ein Regelwerk von Menschen vorgegeben definiert ist, wie man dorthin kommt.
Markus Hoffmann: Die Firma Retresco, Ihre Firma bietet quasi einen KI-Service an, der vor allen im Journalismus, aber wahrscheinlich auch im PR-Bereich, überall wo es um Texte geht, in den letzten Jahren viel Furore gemacht hat, wo eine große Nachfrage auch herrscht. Was macht Retresco genau?
Johannes Sommer: Also wir machen im Prinzip zwei Dinge. Im Grundsatz machen wir eins, was alles verbindet. Wir beschäftigen uns mit der automatisierten Verwertung von natürlicher Sprache. Und das hat zwei Bereiche. Das eine ist, wir analysieren existierende Inhalte, um zu verstehen, worum geht es darin, um sie digital verwerten zu können, automatisiert verwerten zu können. Wir vertaggen Inhalte und bauen zum Beispiel automatisch Themencluster, also sortieren für Medien Archive: Welche Artikel oder welche Inhalte gehören zu welchem Themenkomplex? Da kann auch Künstliche Intelligenz eine Rolle spielen. Das andere, und das ist das, worauf Sie abzielen, was viel Furore gemacht hat, ist im Prinzip die automatische Erzeugung von Texten, die sich lesen, als wären sie von Menschen erzeugt, die aber tatsächlich komplett automatisiert generiert werden auf Basis von Daten.
Markus Hoffmann: Was kann so ein Textgenerator genau und was kann er nicht?
Johannes Sommer: Also was er kann, ist, dass man auf Basis von Daten - gehen wir zu einem Fußballspiel - ich habe zu einem Fußballspiel Daten. Da spielen zwei Mannschaften gegeneinander und ich bekomme zu dem Spiel die Daten: Wer hat gegen wen gespielt? Wie war die Aufstellung? Wer wurde wann ausgewechselt? Werden Tore geschossen, wer hat 'ne gelbe Karte bekommen. Das sind die Informationen, die ich habe. Und was man jetzt machen kann: Ich kann ein Text-Modell bauen, wie beschreibe ich ein Fußballspiel und kann, wenn ich dieses Modell gebaut habe, jedes Fußballspiel auf dieser Welt, basierend auf diesen Daten, korrekt und sprachlich sauber beschreiben. Das heißt, wir, um ein Beispiel zu nennen, machen jedes Wochenende ungefähr 75.000 bis 100.000 Fußballspielberichte, die automatisch generiert werden für alle Spiele, die in Deutschland stattfinden.
Markus Hoffmann: Sie haben ja schon so ein bisschen die Unterscheidung gemacht und gesagt, dass das, was hier eigentlich passiert, erst mal prinzipiell Algorithmen sind, die von Menschen geschrieben werden, die dann als Künstliche Intelligenz wahrgenommen werden. Wird auch maschinelles Lernen in diesem System in irgendeiner Form eingesetzt, also das quasi das System selbstständig sich weiterentwickeln kann?
Johannes Sommer: Also, ja und nein. In dem Beispiel vom Fußball nicht. Fußball ist ein regelbasierter Ansatz per se. Das heißt, wir schreiben Regeln auf. Die Frage ist ja, ich muss der Maschine irgendwie sagen: "Wie beschreibe ich ein Eins (zu) Null?" Und jetzt kommt das nächste Spiel und da steht es aber fünf (zu) drei. Dann muss ich das Spiel anders beschreiben oder die Folgen des Spiels anders beschreiben und den Verlauf. Und das muss ich tatsächlich regeln.
Also wir sagen, wenn es fünf (zu) drei ausgeht, dann kann ich das und das sagen. Wenn einer eine rote Karte bekommen hat, dann ist die und die Formulierung gut, um diesen Sachverhalt auszudrücken. Das ist ein regelbasiertes System. Die Frage ist, wie kommt dieses Text-Modell zustande? Wie schafft es dann die Software auch tatsächlich immer grammatikalisch richtige Texte zu generieren? Und da (wird) zum Beispiel KI in der Erstellung der Sprachmodelle angewandt.
Das heißt, ich kann ein Beispiel in der Übersetzung machen. Wir können entweder einer Software beibringen, was ist die grammatikalisch richtige Darstellung einer Mehrzahl "der Mann", "die Männer". Und dann sage ich, immer, wenn "Männer" dasteht, dann muss der Artikel "die" sein, dann ist es eine Regel. Und ich bringe im Prinzip der Software bei, was grammatikalische Grundregeln sind.
Wir selbst wenden aber auch Künstliche Intelligenz an. Um ein Beispiel da zu sagen: Wir müssen so viele Sprachen entwickeln, dass wir nicht die Regeln für jede Sprache definieren können. Es dauert viel zu viel Zeit. Möglicherweise haben wir das Knowhow gar nicht. Und da kommt Künstliche Intelligenz zum Einsatz, wo im Prinzip selber die Maschine aufgrund von Eingabedaten und von großen Sprachmodellen, von Lernmodellen selber erkennt: Da gibt es auf einmal was Anderes als "Mann", nämlich "Männer" und offensichtlich muss ich dann einen anderen Artikel vorsetzen.
Markus Hoffmann: Okay, also bei grammatikalischen Strukturen kann ich mir das noch sehr gut vorstellen, weil das ja auch letztendlich ein ziemlich gesetztes Regelwerk ist, was man mehr oder weniger in Tabellen rein pressen kann. So funktioniert deutsche Grammatik im Großen und Ganzen. Aber wenn es jetzt um Sinnzusammenhänge geht, das geht ja weit über Grammatik hinaus. Wie gut sind solche Systeme da? Wie können Sinnzusammenhänge erstellt werden? Also erst mal auf der einen Seite, wenn ein Text generiert wird, aber auch im Textverständnis.
Johannes Sommer: Also bleiben wir bei der Textgenerierung, weil das wunderschön die Grenze aufzeigt. Genau das ist die große Schwäche und das ist auch, was nicht gelöst ist, also den Sinnzusammenhang. Da ist die Künstliche Intelligenz auf einmal überhaupt nicht intelligent, das ist halt am Ende ein dummes System, was ja aus Eingabedaten zwar lernt, aber die Sinnzusammenhänge nicht transportieren kann.
Das heißt, es ist auch ein großes Thema bei automatischer Textgenerierung, die ausschließlich auf Künstlicher Intelligenz basiert oder auf "Machine Learning" basiert, dass sie halluziniert, sagt man. Sie fängt an, Dinge zu erzählen, die zwar grammatikalisch wunderschön und toll formuliert sind und es ist alles richtig, aber die inhaltlich überhaupt keinen Sinn mehr machen, die sich weit von der Realität entfernen, einfach, weil sie eben keinen Sinnzusammenhang und keine Einordnung von Themen hat.
Beim Textverständnis ist es so, dass man auf einer kleineren Ebene arbeitet. Das heißt, ich kann natürlich sagen, wenn ich sage: "Angela Merkel ist auf Abschiedsreise in China und danach fährt sie weiter nach Russland." Dann kann ich alleine aufgrund der Entitäten, also der Sinn tragenden Worte, die in dem Satz enthalten sind, feststellen: Es geht um Frau Merkel, es geht um Russland, China und Abschiedsreise. Damit kann ich den Sinn des Satzes extrem gut erschließen. Aber bei der Textgenerierung geht es ja eben nicht darum, einen einzelnen Satz zu formulieren, sondern am Ende muss ein ganzer Text rauskommen, wenn ich gesamtheitlich denke. Und einzelne Sätze können wir automatisiert formulieren. Also zum Beispiel wenn ich sage: "Dieses Spiel ging eins zu null aus.", dann muss ich, wenn ich 75.000 Spiele jedes Wochenende schreibe, muss ich andere Varianten haben, wie ich sage: "Dieses Spiel ging eins zu null aus." Ich brauche Varianz, dass die Texte nicht alle gleich klingen. Und dafür haben wir zum Beispiel Künstliche Intelligenz, die dann (etwas) vorschlägt.
Ich gebe den Satz vor und auf Basis von Lernmaterial weiß die Maschine nun selbst, oder die Software selber: Okay, es gibt 20 Vorschläge, wie ich diesen Satz noch anders ausdrücken und dasselbe sagen kann. Auf der Ebene ist es nicht fehlerfrei, aber es ist sehr, sehr brauchbar und praktikabel. Wenn ich sage, ich muss einen ganzen Fußballspielbericht automatisch generieren, wird das mit Sicherheit nicht funktionieren, weil die Ursache (und) Wirkung: Warum hat wer verloren? Was ist ein Einflussfaktor für ein Tor oder was auch immer?, das wird die Maschine von alleine, im Moment zumindest, noch nicht erkennen.
Markus Hoffmann: In welchen Gebieten wird momentan Ihre technologische Dienstleistung angeboten? Sie sagen, im Bereich Fußball- und Spielberichterstattung. In welchen Bereichen sind Sie da momentan noch unterwegs?
Johannes Sommer: Also im Journalismus, (wenn wir uns) darauf beschränken, sind es im Prinzip alle journalistischen Formate, die auf Daten basierend sind. Das fängt erst mal bei ganz banalen Sachen an, die es auch ehrlicherweise schon lange templatebasiert automatisiert gibt, Wetterberichte sind zum Beispiel so ein Thema und Verkehrsnachrichten.
Ich habe immer wieder die gleichen Input-Daten: Stau, 20 Minuten Wartezeit, Unfall, gesperrt, irgendwas, wo ich nur alle 20 Minuten aktualisieren muss. Das sind Sachen, die komplett automatisiert laufen können, mittlerweile auch in verschiedenen Sprachen. Wir sind sehr relevant unterwegs im Bereich Wahlen. Das ist sicherlich das größte Thema: Wahlberichterstattung. Vor allen Dingen, wenn ich mir überlege, dass ich automatisiert in quasi Echtzeit Ergebnisse für jeden Wahlbezirk vorlege, eine individuelle Analyse schreiben kann, automatisiert und bundesweit, weil die Daten vorliegen bei der Bundestagswahl für alle Wahlkreise. Dann ist das etwas, was ich menschlich gar nicht machen kann. Also Wahlen, Corona, alle statistischen Informationen: "Wie ist die Covid-Entwicklung?", Verkehr, Wetter, Sport, Börse, überall da, wo ich konsistent immer gleiche Daten zur Verfügung habe.
Markus Hoffmann: Wenn wir jetzt mal so ein bisschen schauen, in den nächsten paar Jahren, weil die Entwicklung von solchen Systemen ist ja eigentlich rasant. Wenn ich mir überlege, dass ich mich daran erinnere - 2000, 2005 muss das gewesen sein, da gab es dann "IBM via Voice", "Dragon Naturally Speaking", diese ersten Geschichten, wo man eine Diktierfunktion am Computer hatte. Und man musste das System über 20 Minuten erst trainieren, damit irgendwas funktioniert hat und wo wir heute stehen, wo es von verschiedensten Firmen digitale Assistenten gibt, denen man sagen kann: "Mach das Licht an. Mach das Licht aus.", und es funktioniert. Texte werden generiert. Wo geht da die Reise hin, wenn man so ein bisschen Orakel spielen würde, die nächsten 5 bis 10 Jahre? Was meinen Sie?
Johannes Sommer: Kurzfristig, glaube ich, werden erstmal sehr viel mehr Formate entstehen, weil ein bottleneck sich zunehmend löst: "Sind überhaupt Daten verfügbar?" Das war in vielen use cases einfach das Problem. Da gibt es tolle Ideen, was man alles machen kann. Es fehlen schlichtweg Datenquellen. Das ist der größte Change, das verändert sich, man hat mittlerweile zu fast allen Themen gute Daten zur Verfügung.
Mittelfristig ist es so, dass ich glaube, dass die, genau das, worüber wir gerade diskutiert haben. Ich glaube nicht, dass jetzt absehbar Sinnzusammenhänge erkannt werden können, aber dadurch, dass ich sehr viel mehr Trainingsmaterial habe, sehr viel bessere Verfahren, sehr viel einfachere Rechenlösungen, dadurch, dass es ganz andere Sprachmodelle gibt, die es einfach noch nie gab, wird es sicherlich dazu führen, dass ich gar nicht mehr so viel in dem Training eines Textmodells investieren muss.
Das heißt, ich gebe Daten ein, ich gebe irgendwann ein: Was ist mein Beispieltext, den ich aus diesen Daten mache. Und dann wird maschinelles Lernen anfangen und wirklich zum Einsatz kommen, ganze Texte automatisiert auf Basis neuer Datensätze zu formulieren und zu schreiben. Da werden wir eine rasante Entwicklung sehen. Das heißt, es wird weiter weggehen von regelbasierten Anwendungen hin zu mehr KI, die ganze Texte schreiben kann. Da ist sicherlich auch eine menschliche QA (Quality Assurance, übers. Qualitätssicherung, Anm.d.Red.) und es braucht auch Einflussmöglichkeiten. Das ist ein großes Thema. Wie kann ich automatisch generierte Texte, die von der Maschine gemacht sind, wie kann ich diese grundsätzlich korrigieren, ohne dass der nächste Text wieder blödsinnig wird und so weiter. Da werden wir eine enorme Entwicklung sehen. Da sind die Entwicklungen dran. Also mehr Einflussnahme oder mehr autonomes Arbeiten tatsächlich von Algorithmen.
Markus Hoffmann: Also das menschliche Korrektiv ist im Moment auf jeden Fall auch wichtig. Wird auch in den nächsten Jahren erstmal noch wichtig bleiben. Da wird der Roboter nicht oder die KI nicht von alleine losrennen. Und wenn man so mal schaut. Ich hatte diese Woche noch von so einem KI-Fail, wie man so schön sagt, gelesen. Und zwar ging es auch um ein Fußballspiel am 29.2.2020, TSG Hoffenheim gegen den FC Bayern München und da gab es irgendeinen Eklat. Und ab der 77. Minute haben dann die Spieler nur noch angefangen, sich die Bälle zuzupassen und es war eigentlich auf dem Platz ganz klar, da ist gerade ein Streit, da ist gerade was passiert. Aber der Liveticker in der Berichterstattung hat brav und artig weitergemacht. Frage: Wie kann es zu solchen Fehlern kommen? Und wie wichtig ist die menschliche Komponente nach wie vor bei solchen Anwendungen?
Johannes Sommer: Also da stecken viele Fragen drin. Das eine ist: "Wie kann es dazu kommen?" Das ist total einfach und es ist vollkommen unerheblich, ob das regelbasiert von Menschen programmiert war, die Software, die da zum Einsatz kommt oder ob das die Engine war, der Fall ist nicht vorgesehen.
Also in dem Fall war es einfach so, ich weiß nicht wer (und) was das für ein Anbieter war oder was dahintersteht. Das würde uns genauso passieren. Wenn ich nicht weiß, es kann Spielabbruch geben und die Spieler stehen auf dem Platz rum und kicken ein bisschen, dann weiß ich es nicht. Ich weiß, wenn die Daten als Input erstens nicht da sind, also es gibt nicht mal ein Eingabeformat, wo ich sagen kann: "Achtung, da passiert jetzt gerade was." Es gab auch schon Spielabbrüche nach 70 Minuten, weil es Randale gab auf den Rängen. Wenn so eine Engine erstens schon nicht den Impuls kriegt: "Achtung. Das Spiel wurde abgebrochen wegen Randale auf Rängen." Dann wird es sagen, wenn es Glück hat, Spiel wurde abgebrochen, aber wenn es die Information nicht kriegt, sagt es: "Das Spiel endet null (zu) null.", ohne zu wissen, dass es Randale gab, dass es abgebrochen wurde. Wenn ich das dann auch nicht weiß, Punkt dran. Das heißt, wenn es maschinelles Lernen ist, ist die Engine dumm.
Es wäre jetzt eine KI, wenn die Engine von alleine darauf kommt: "Achtung, jetzt ist etwas ganz anders und jetzt löse ich dieses Problem neu." Dann hätte sie wirklich Intelligenz. Das hat sie aber nicht. Davon sind wir sehr weit entfernt. Das heißt eigentlich im Umkehrschluss, um es einfach zu machen, die Engine mit dem, was sie kann, oder die Software wird immer versuchen, das zu tun, was sie sollen, nämlich den finalen Spielbericht generieren. Und das tut sie. Und wenn dann etwas passiert, was es nicht kennt, probiert sie es trotzdem, den Spielbericht zu generieren, weil es die Aufgabe ist.
Markus Hoffmann: Es gibt, wie wir gerade gesehen haben, die Endlichkeit in den Möglichkeiten, die eine KI hat, also die menschliche Komponente ist nach wie vor wichtig. Wenn man das jetzt noch mal auf den Journalismus ein bisschen speziell münzt, weil es ja schon Veränderungen gibt, die durch solche Systeme im Journalismus stattfinden. Wie sind die Impacts? Mehr oder weniger die Auswirkungen, die die Systeme jetzt haben, auch in den letzten Jahren schon gehabt haben und Chancen und Möglichkeiten für Journalismus auch durch solche Systeme?
Johannes Sommer: Also ich habe jetzt witzigerweise letzte Woche in einem Podcast von einem KI-Experten gehört, das fand ich extrem weise. Der wurde gefragt: "Wird KI grundsätzlich überschätzt?" Und er sagt: "Ja, wird es." Aber das führt dazu, dass man, wenn man sich anguckt, so wie wir, "Was kann eigentlich eine KI?" Und dann sagt man: "Ah, jetzt ist die KI aber zu doof, so einen Spielabbruch darzustellen.", dann banalisiert man auf einmal auch, was schon passiert (ist), weil man sie überschätzt. Und man sagt: "Eigentlich muss das ja alles können.", dann merkt man, (die KI) kann eigentlich nicht alles und hat große Grenzen. Und es ist relativ banal, fühlt sich banal an, was es kann und dadurch unterschätzt man wieder, was es schon eigentlich macht. Natürlich hat es Grenzen und die werden sich verschieben. Es wird mehr können. Es wird mehr zum Einsatz kommen. Aber um es klar zu sagen, es wird großen Einfluss haben darauf, wie bestimmte Formate entstehen. Und das sind nicht nur negative Sachen, beziehungsweise will ich jetzt überhaupt noch nichts wertend sagen.
Klar ist, dass ich zum Beispiel eine Wahlberichterstattung in der Wahlnacht eigentlich weitestgehend automatisieren kann. Und da ist schon die erste Veränderung. Da sitzen normalerweise Redaktionsteams dran, die das lange vorbereiten, die sich in der Wahlnacht bis nachts um drei die Nacht um die Ohren schlagen, um eine vernünftige Berichterstattung zu machen. Wenn ich sage, ich kann die ganze Basisberichterstattung: "Wer hat gewonnen? Verloren? Wie ist die Veränderung zum Vorjahr? Welcher Spitzenkandidat ist abgerauscht? Wer ist der Überraschungssieger?", das kann ich alles automatisieren. Das heißt, ich kann ein kleines journalistisches Team darauf fokussieren zu sagen: Wie kam es dazu (und die) führen dann Interviews. Das ist es. Ich nehme Redaktionen basisch Aufgaben ab. Oder ich nehme sie weg - kann man jetzt definieren, wie man will. Wir können auf einmal (mehr machen), es entstehen neue Formate. Wir können über jedes Fußballspiel in Deutschland berichten. Das heißt, jedes Kreisligaspiel hat einen eigenen Artikel. Ich kann mittlerweile automatisch Bilder dazu fügen. Ich kann automatisch aus anderer Software Videos dazu fügen. Das heißt, ich kann einen Spielbericht machen, in allen medialen Formaten, über alle Kanäle automatisiert distribuieren, ohne dass es am Ende einen Redakteur braucht. Und das ist natürlich schon im Grundsatz eine große Veränderung.
Ob es den Journalismus verändert? Es verändert Formate oder auch Arbeitsweisen, möglicherweise in bestimmten Formaten. Aber der Journalismus an sich, den verändert es nicht. Dass Sie jetzt hier sitzen und mich befragen, das wird sich eine Maschine nicht ausdenken. Alleine, dass es die Notwendigkeit geben kann und auch die Fragen in die Logik zu bringen, die vielleicht nicht nur klar stringent sind, sondern dass wir jetzt auch interagieren, dass Sie nicht nur ein Fragenkatalog abarbeiten, sondern auch reagieren auf meine Fragen und so weiter, vertiefen oder auch mal laufen lassen, das sind alles Dinge, die wird uns die KI nicht abnehmen und (das) soll sie auch nicht. Und deshalb wird sich der Journalismus in seinem Wert und in seiner Rolle auch nicht verändern.
Markus Hoffmann: Mit Aufkommen von Interesse, was KI ist, was KI kann, heißes Thema in den letzten Jahren, kommt auch der Begriff Ethik immer wieder in den Medien auf. Gibt es da Gefahren, dass eventuell solche automatisierten Textsysteme dann auf einmal jede Menge Fake News generieren und wir dann noch mal eine Schippe mehr Probleme kriegen in den sozialen Netzwerken?
Johannes Sommer: Also ja, natürlich, ich kann natürlich sehr viel einfacher Content in Massen produzieren, distribuieren. Ich kann es auch personalisieren und dann natürlich versuchen, Einfluss zu nehmen. Das heißt, die Verantwortung des Produzenten und der Hersteller von so einer Software, aber auch den Anwendern, die solche Software dann einsetzen, die ist enorm groß, weil es hilft. Es fördert es natürlich, weil es vereinfacht Informationen oder Inhalte zu erstellen und die zu verbreiten, ob die richtig sind oder falsch, ob sie fake sind oder echt. Das heißt ja, es kann das fördern.
Was es auf der anderen Seite bringt, ist ein großes Bewusstsein. Es gibt, glaube ich, tatsächlich diese ethische Diskussion und überhaupt die Diskussion um Fake News. (Die) ist ja enorm groß. Und am Ende sind Fake News von Menschen gemacht. Das heißt, man muss immer gucken, wer ist die Quelle? Wie ist die Software? Also in der Software-Entwicklung muss man aufpassen, dass mein Algorithmus nicht rassistisch wird. Das ist die Verantwortung desjenigen, der die Software produziert.
Ob wir Wahlergebnisse richtig darstellen oder falsch, liegt am Ende an der Redaktion, die unsere Software einsetzt und sie mit Daten füttert, welche Informationen sie geben soll. Es heißt, die Technologie zu verteufeln ist Quatsch, weil die Technologie von alleine wird Fake News maximal aus Unwissenheit, also wenn sie halluziniert, wird sie Blödsinn erzählen. Das ist eher (eine) Warnung, nicht immer die Form in den Vordergrund zu stellen, sondern den Inhalt. Deshalb sind viele Sachen noch nicht produktiv anwendbar, auch wenn sie toll klingen. Aber wenn ich Fake News mache, wenn ich eine Fake News positionieren will, dann muss ich es regelbasiert machen. Weil ich sicher sein (will), dass meine Informationen, die Fake-Information auch ankommt. Also bin ich der Ursprung des Übels und die Software kann mir maximal helfen, mein Übel schneller zu verbreiten. Insofern ist es ein Treiber davon. Ja. Ist es per se eine Gefahr, dass es die Technologie gibt, wie immer bei Technologie? Nein. Aus sich heraus sicher nicht.
Markus Hoffmann: Dann hat man wahrscheinlich auch so ein bisschen die Verantwortung. Auch als Unternehmer, der solche Technologien herstellt und zur Verfügung stellt, als Softwareservice. (Gab es) da schon mal eventuell Situationen, wo jemand auf Sie zugekommen ist und gesagt hat: "Ich würde ganz gerne, dass Sie mal hier was für mich machen.", und Sie haben gesagt: "Nee, wir machen das nicht für dich."?
Johannes Sommer: Ja. Ja, also das gab es. Das ist jetzt gar nicht so schwarz, wie man es jetzt denken würde, wenn ich sage, "Ja gab es.". Hier mache ich kein großes Geheimnis draus und ich werde nicht sagen, was der Sachverhalt an sich ist. Es war jetzt gar nichts Dramatisches, aber schon etwas, wo man sagt: "Das ist nicht richtig." Also nein, es war jetzt nicht groß. Jemand wollte jetzt nicht Fake News, aber es sollte anders deklariert werden als das, was es ist. Es sollte so ein bisschen Expertenmeinung darstellen, obwohl es ein automatisch generierter Text ist und ein automatisch generierter Text ist mit Sicherheit keine Expertenmeinung. Wo wir den Kunden tatsächlich bedient haben, aber dann das anders gedreht wurde. Da gab es einen Diskurs. Aber die richtige Ableitung ist, natürlich muss man die Hersteller von Software und die Anwender dieser Software wahnsinnig in die Verantwortung nehmen und in die Pflicht nehmen. Und da kann sich auch keiner rausreden, weil die wissen müssen, was sie da machen und was am Ende auch die Power von so einem System ist. Und das kann man nicht kleinreden. Die Verantwortung ist da.
Markus Hoffmann: Und es sollte quasi immer ausgewiesen sein, wenn man so einen Text liest. Dieser Text ist von einer Maschine gebaut worden und nicht von einem menschlichen Autor.
Johannes Sommer: Im journalistischen Kontext unbedingt. Das war auch nicht immer so. Das haben viele nicht gemacht, unbedingt im Journalismus. Es gibt andere Kontexte, da ist das nicht so wichtig, aber im journalistischen Kontext auf jeden Fall.
Markus Hoffmann: Herr Sommer, ich bedanke mich für dieses Interview. Danke, dass wir heute hier sein durften.
Johannes Sommer: Sehr gerne.
Markus Hoffmann: Und ich bedanke mich natürlich auch bei unseren Zuschauern im Internet für die Aufmerksamkeit bis zum nächsten Mal bei MEDIEN360G.