Interview mit Aneta Nowobilska, Upday "Wir beobachten, was die Nutzer lesen"
Hauptinhalt
08. Februar 2022, 20:53 Uhr
In den sozialen Medien beeinflussen Algorithmen, was wir lesen und wie oft wir Informationen angezeigt bekommen. Was wäre, wenn eine Maschine für uns Nachrichten wie auf einer Streaming-Plattform auswählt und anbietet? MEDIEN360G sprach mit Aneta Nowobilska, Chief Product Officer bei Upday, über Künstliche Intelligenz, die hilft, journalistische Inhalte zu kuratieren.
Markus Hoffmann: Hallo und herzlich willkommen bei MEDIEN360G. In diesem Monat dreht sich alles um Künstliche Intelligenz im Journalismus. Welche Einflüsse hat sie jetzt schon? Was gibt es, was gibt es nicht? Und heute bin ich hier bei Axel Springer, um es genau zu sagen bei Upday im Axel-Springer-Gebäude in Berlin, und bei mir sitzt Aneta Nowobilska. Sie ist die Chief Product Officer.
Aneta Nowobilska: So sagt man das.
Markus Hoffmann: So sagt man das, ja. Erst mal hallo, schön, dass Sie heute Zeit für uns haben.
Aneta Nowobilska: Gerne, hallo.
Markus Hoffmann: Können Sie uns ganz kurz erklären: Was ist Upday und was macht ein Chief Product Officer bei Upday?
Aneta Nowobilska: Gerne. Upday ist eine Nachrichtenapplikation, die tatsächlich der Vision folgt, Journalismus und Technologien in einem zu verbinden. Es ist so, dass wir Nachrichten aus verschiedenen Quellen, ob das Spiegel ist oder Süddeutsche Zeitung oder die Zeit, in einem Produkt verwenden und liefern die Informationen dem Nutzer aus, je nachdem, was einen interessiert. Tatsächlich basiert auf dem Leseverhalten, aber auch diese Informationen, die er oder sie wissen müssen, weil das eben relevant ist. Vielleicht Informationen bezüglich der Politik oder wichtigen Sportereignisse.
Dieses Produkt ist verfügbar in 34 europäischen Ländern, vorinstalliert auf Smartphones der Firma Samsung. Und was tue ich dann? Ich verantworte die Entwicklung von diesem Produkt. Arbeite mit sogenannten Product Ownern und Designern, die sich die Bedürfnisse der Nutzer anschauen. Wie entwickelt sich Leseverhalten oder allgemein Nachrichten-Affinität der Menschen? Und auf dieser Basis entwickeln sie unser Produkt weiter.
Markus Hoffmann: Das hört sich so ein bisschen an, wie eine Kreuzung zwischen Facebook und Netflix, aber für Nachrichten. Habe ich das richtig verstanden?
Aneta Nowobilska: Das kann man so sagen. Wir werden gerne verglichen mit wichtigen Marken.
Markus Hoffmann: Was hat dann Künstliche Intelligenz in diesem Konstrukt zu tun? Wo greift da Künstliche Intelligenz und was macht die?
Aneta Nowobilska: Die Frage ist natürlich, was betrachtet man denn als Künstliche Intelligenz? Aber wenn wir sagen, dass es hier darum geht, die Gedanken der Menschen durch Computerprogramme abzubilden, dann tatsächlich tun wir so was. Das heißt, wir beobachten, was die Nutzer lesen. Wie interagieren sie mit unserem Produkt? Welche Nachrichten finden Sie spannend? Und auf dieser Basis spielen wir auch zum Beispiel ähnliche Informationen aus, oder auch ab und zu solche Dinge, die die Leute vielleicht sonst interessieren könnten. Das heißt, in einem Teil unseres Produktes arbeiten wir nicht nur mit Menschen und Journalisten, sondern die Technologie hilft uns, auf Basis des Nutzungsverhaltens die Entscheidung zu treffen, welche Inhalte sind für die gewisse Person richtig und spannend.
Markus Hoffmann: Das Ganze ist ein System, was aber dann dazu lernt. Es ist ein maschineller Lernprozess dahinter?
Aneta Nowobilska: Ja.
Markus Hoffmann: Wie funktioniert das? Wie kann man sich das vorstellen?
Aneta Nowobilska: Also es ist so, dass wir zum einen die Inhalte, die wir in unserem Produkt haben, also so wie ich erwähnt habe, von verschiedenen Publishern, ob The Guardian oder Die Zeit in Deutschland, wir analysieren erst mal diese Texte. Und tatsächlich, das ist der eine Teil, der schon lernt, weil es geht darum, zu erkennen, geht es hier um eine Person, wie eine Politikerin, oder geht es um einen Sportler oder vielleicht ein gewisses Produkt oder Marke von Smartphones zum Beispiel? Und je mehr Inhalte wir zu diesem Thema haben, lernt die Maschine, diese Inhalte besser zu klassifizieren.
Das heißt auch, gleichzeitig besser zu verstehen: Aha, der Nutzer ist nicht nur in Politik interessiert, sondern eigentlich geht es hier um Angela Merkel als Person. Das heißt, das ist der eine Teil. Der andere Teil: Hier geht es um diese Nutzer-Perspektive. Je nachdem, was ich lese, wie viel ich lese, verstehen dieser Algorithmus immer mehr: "Aha. Ich als Nutzer, als Person bin interessiert in dem Inhalt Angela Merkel.", zum Beispiel und eigentlich aber auch mit einem verbundenen Inhalt. Also sagen wir, Politik in Russland, die dann womöglich tatsächlich damit zusammenhängt. Das heißt dieser Algorithmus bringt verschiedene Datenelemente zusammen und auf dieser Basis spielt er Empfehlungen für den Nutzer aus.
Markus Hoffmann: Wenn wir noch mal zu dem Bild kommen, das ich vorhin hatte, mit Facebook und Netflix. Bei Facebook mehr, Netflix hatte andere Probleme, aber bei Facebook gibt es ja sogenannte Filterblasen, weil genau das, was die Leute sehen möchten, auch generiert wird, aber die Menschen eventuell gar nichts Neues mehr bekommen, was vielleicht auch relevant und wichtig für sie wäre, um eventuell vielleicht noch eine andere Perspektive einzunehmen. Besteht bei so einem System auch die Gefahr, dass dort Filterblasen passieren können?
Aneta Nowobilska: Allgemein ja, je nachdem natürlich, wie man diese Technologie, dieses System einsetzt. Es ist in der Tat so, dass man im Kontext von Facebook über diese Filterblase spricht. Wir haben uns extra auf die Fahne gesetzt, das machen wir nicht. Wir inspirieren uns von ganz altmodischen Sachen, nämlich von der Zeitung.
Und in der Zeitung kennen wir das: Die erste Seite, da geht es um Breaking News, wichtige Nachrichten, solche, die für alle interessant sind. Dann geht es irgendwann um Sport, dann irgendwann vielleicht um Unterhaltung oder lustige Inhalte. Und so haben wir unser Produkt aufgebaut, also das Zentrum unseres Produktes, das ist der sogenannte Nachrichten-Stream. Und dieser Stream besteht aus Karten.
Und wir haben es extra so gestaltet, dass eine Karte zum Beispiel komplett basiert auf dem Leseverhalten Inhalte ausspielt. Die andere Karte aber absichtlich sagt: Na, jetzt mal was Lustiges, vielleicht interessiert das den Nutzer. Das heißt, man wird immer aus dieser Filterblase rausgenommen und wir machen immer solche kleinen Prüfungen. Vielleicht ist das doch auch für dich interessant. Etwas, was der gewisse Nutzer vielleicht sich nicht gedacht hätte.
Markus Hoffmann: Das heißt also, die menschliche Komponente ist in dem Gesamtsystem unheimlich wichtig. Was macht der Mensch dann da, in diesem Maschinensystem, KI-System?
Aneta Nowobilska: Trotzdem noch alles. Ich würde behaupten, dass die Technologie die Menschen auf jeden Fall heute noch nicht ersetzen kann und sicherlich auch in einigen Jahren nicht.
Eines der wichtigsten Merkmale von unserem Produkt ist die Tatsache, dass wir mit Journalisten zusammenarbeiten. Es ist schon so, dass viele andere sogenannte Content Aggregatoren, also ähnliche Produkte wie Upday, versuchen, nur auf Basis der Technologie (Inhalte) auszuspielen, welche den Nutzer interessieren. Und das führt eben zu dieser Filterblase. Das mag ja auch dazu führen, dass vielleicht Fake News ausgespielt werden oder eben Inhalte, die da gar nicht hingehören, um einen Menschen mit vollsten Vertrauen zu informieren. Das haben wir von Anfang an nicht getan. Unsere DNA ist ja auch Journalismus.
Und zum einen arbeiten wir mit Journalisten, die eben jeden Tag entscheiden: Was muss der Mensch heute wissen? Was sind die wichtigsten Inhalte? Wo gibt es keine Fake News? Welchen Quellen vertrauen wir? Das ist die eine Perspektive, also unsere sogenannte Top-News.
Der zweite Teil von unserem Produkt, da geht es tatsächlich um diese Technologie. Also allgemein ist es schon so, dass dieser Nachrichten-Stream auf Basis der Technologie Inhalte ausspielt. Allerdings auch damit beschäftigen sich Menschen, unsere Content Quality Manager, die zum einen entscheiden, welche Quellen da überhaupt reingenommen werden. Das heißt, es ist kein Mechanismus, indem wir sagen: Nimm einfach alles aus dem Internet, was es an Quellen gibt, an Inhalten. Sondern wir entscheiden, was im technischen Sinne geeignet ist für unser Produkt. Zum Beispiel: War das richtig dargestellt ist für Mobiltelefone? Oder: Welche Publisher, welche Inhalte sind denn auch im politischen Sinne oder im journalistischen Sinne auch korrekt? Die, die wir vertreten wollen, sozusagen, die unabhängig sind, das heißt, auch dort spielt die menschliche Komponente eine große Rolle. Und erst nach dieser menschlichen Prüfung werden unsere Inhalte aufgenommen und erst dann durch Technologie behandelt. Das heißt, Menschen machen immer noch einen großen Teil des Jobs.
Markus Hoffmann: Das Thema KI ist jetzt gerade bei Publishern und in den Medien ein großes Ding. Viele Publisher in Deutschland sagen: Das wird auch das große Ding in den nächsten Jahren sein. Wie sieht es denn bei Axel Springer aus, dem eigenen Haus? Ihr hier bei Update, seid ihr da so ein bisschen erst mal noch so ein "Unicorn" und gucken die Kollegen aus den anderen Redaktionen erst mal so ein bisschen: "Na, was machen die denn da?" Oder ist es schon irgendwie so der "heiße Scheiß"?
Aneta Nowobilka: Das ist schon der "heiße Scheiß" und wir wären auch gerne ein "Unicorn" im wahren Sinne. Also es ist so, dass natürlich vor ein paar Jahren waren die Publisher vielleicht noch misstrauisch. Also: "Hey, was heißt das, dass unsere Inhalte irgendwo integriert werden in anderen Plattformen? Und was haben wir denn davon?" Heute wissen die Publisher und auch Axel-Springer-Marken, dass das sehr gewinnbringend ist mit Plattformen wie unserem Produkt zusammenzuarbeiten, weil wir auch Traffic generieren.
Das heißt, in unserem Produkt sieht der Nutzer nur den Teaser von den relevanten Nachrichten und wenn der Nutzer draufklickt, wird er dann (direkt weitergeleitet) zu der Webseite des Publishers. Das heißt letztendlich, ob solche Titel wie Welt oder Bild, hier in unserem Konzern, die bekommen letztendlich von uns Nutzer und können diese Nutzer weiter, ob monetarisieren oder vielleicht auch durch unser Produkt neue Kunden-, oder Nutzergruppen kreieren. Mittlerweile haben die Publisher auch positive Meinung gegenüber solchen Produkten wie dem unseren.
Markus Hoffmann: Bleiben wir mal ganz kurz bei der Monetarisierung. Axel Springer ist ein privater Verlag, der natürlich mit Werbeeinnahmen Geld generiert. Wenn man jetzt so eine KI hat, die auf der einen Seite natürlich die Texte analysiert und man sieht: "Ah okay, das ist das Verständnis und da geht es um Merkel und da geht es um Politik." Und auf der anderen Seite, aber auch immer besser den Nutzer versteht, ähnlich wie bei Facebook, die ja auch immer besser die Nutzer verstehen. Ist es ja eigentlich auch dann noch fast präziser, Werbung auszuspielen. Hat das was miteinander zu tun oder ist es erst mal noch weit weg voneinander?
Aneta Nowobilska: Also allgemein ist es schon so, dass wir bei diesem "Verstehen der Nutzer" auch tatsächlich verstehen, was für Werbung für den Nutzer interessant wäre. Also wenn das jemand ist, der ganz besonders gerne Sportinhalte konsumiert, dann können wir tatsächlich diese Information auch zur Ausspielung der Werbung nehmen und sozusagen auch im Sinne von Werbekunden auch relevante Inhalte ausspielen. Doch das tun wir.
Markus Hoffmann: Vielleicht noch eine Frage, die so ein bisschen auch noch mal in das Journalistische reingeht. Wie wird sich das Ganze, einfach mal so die Glaskugel und Ihre Meinung, die nächsten fünf sechs Jahre (entwickeln)? Ich meine, der Journalismus ist viel im Umbruch. Es wird viel probiert, aber wir sehen doch in der Gesellschaft auch immer mehr stellenweise Vertrauensverlust, Polarisierung. Was glauben Sie, wie wichtig ist Journalismus in der Zukunft und vor allen Dingen dieser Daten getriebene Journalismus? Inwieweit kann der positiv sein, um vielleicht dem Journalismus noch mal so einen positiven Lift zu geben für die Bevölkerung?
Aneta Nowobilska: Das ist natürlich eine sehr komplexe Frage und wir haben ja nicht den ganzen Tag. Aber wie wird die Zukunft aussehen? Journalismus wird es selbstverständlich geben. Wir haben ja gesehen, das einfachste Beispiel im vergangenen Jahr, in der Zeit der Pandemie: Wie wichtig ist es, keine Fake News zu erhalten? Nachrichten, denen man vertrauen kann, wenn es sich um Leben und Gesundheit der Menschen handelt. Es gibt aber laufend Beispiele, die zeigen, ohne Journalismus wird das nicht funktionieren.
Wenn wir über diese digitalen Trends sprechen - diese finden ja auch statt, dass das Thema "Daten getriebener Journalismus" ist oder Anpassung der journalistischen Inhalte an die Plattformen, auf denen sie ausgespielt werden. Ob das gewisse Social Media-Marken aus Amerika sind oder etwas Anderes, das findet bereits jetzt statt. Und ich glaube, dass Journalismus noch mehr in diese Richtung geht und dass die Journalisten auch noch mehr akzeptieren werden müssen, dass das eben die neue Zukunft ist.
Auf der anderen Seite ist es ja auch etwas Wunderbares. Durch Daten-Verständnis können wir letztendlich verstehen, was die Nutzer wollen. Wir können das auch "reworlding" nennen, wenn man das so sagen kann. Ja, das ist was Schönes, wenn wir sehen: "Hey, der Text, die Geschichte, die ich gerade geschrieben habe", beziehungsweise nicht ich, unsere Journalisten, "ist ja wahnsinnig erfolgreich, ist wahnsinnig relevant, wird vielleicht auch geteilt." Und auf der anderen Seite, durch passende Formate können wir auch ganz junge Leute auf sozialen Netzwerken abholen. Daher sehe ich für mich persönlich als jemand, der in Technologie verliebt ist, sehr viele Vorteile für Journalismus in den kommenden Jahren.
Markus Hoffmann: Frau Nowobilska ein schönes letztes Wort, "verliebt in die Technologie". Das kann ich von unserer Redaktion fast auch sagen. Wir machen ja viel mit Medien. Ich bedanke mich bei Ihnen für dieses interessante Gespräch und ich bedanke mich auch bei den Zuschauern im Internet. Bis zum nächsten Mal bei MEDIEN360G.