Jochen Leidner, Professor für Künstliche Intelligenz an der Hochschule Coburg. Quelle/Rechte: Jochen Leidner
Jochen Leidner, Professor für Künstliche Intelligenz an der Hochschule Coburg hat mit seinem Team einen KI-Scanner entwickelt, um Manipulationen und Vorurteile in einem Text nachzuweisen. Bildrechte: Jochen Leidner

Künstliche Intelligenz Forscher entwickeln Textscanner, um mit KI Manipulationen zu erkennen

04. Juli 2024, 14:57 Uhr

In der politischen Willensbildung – besonders vor Wahlen – spielen Medien eine entscheidende Rolle. Eine KI-Forschergruppe aus Coburg hat jetzt eine Bias-Textscanner entwickelt, mit dem vorverurteilende Wertungen, Manipulation und Propaganda entdeckt werden können.

In aktuellen politischen und gesellschaftlichen Diskussionen spielen Medien eine zentrale Rolle. Immer wieder wird über eine einseitige, in Teilen abschätzige oder auch vorverurteilende und populistische Berichterstattung diskutiert. Diese Phänomene verstärken sich in den sozialen Medien, die – anders als journalistische Medien – das Trennen von Fakten und Meinungen nicht kennen. Um eventuelle Manipulationen und auch Propaganda in Texten zu erkennen, hat jetzt ein Forscherteam aus Coburg auf der Basis von künstlicher Intelligenz einen Bias-Textscanner entwickelt.

Bias Bias bedeutet Vorurteil, Voreingenommenheit, Verzerrung in unserer Wahrnehmung zum Beispiel durch Fehler in der Datenerhebung.

Immens schnelle Änderung der Kommunikation

"Medien sind für die politische Willensbildung als vierte Gewalt im Staat für unsere Demokratie unerlässlich", erklärt Jochen Leidner, Professor für Künstliche Intelligenz an der Hochschule Coburg. Leider seien die nachrichtliche Medienkompetenz vor allem bei jüngeren Menschen und die technologische Medienkompetenz bei älteren Menschen nicht immer so ausgebildet, um mit dem immensen Tempo der digitalen Entwicklung und ihrer damit verbundenen Veränderung der Kommunikation Schritt zu halten.

Technologisches Gegenmittel nötig

"Die Feinde der Demokratie sind stark gerüstet, das haben wir zuletzt bei dem Skandal um das elektronische Beratungsunternehmen Cambridge Analytica gesehen. Dort wurden mit Hilfe von Facebook-Daten Persönlichkeitsprofile erstellt, um Menschen bei der Brexit-Volksabstimmung und auch der Präsidentenwahl in den USA zielgerichtet politisch zu agitieren und zu manipulieren", erklärt Leidner. "Die Gegner der Demokratie versuchen zu spalten, vielleicht kann hier die Forschung helfen. Wir brauchen ein technologisches Gegenmittel, um eine geopolitische propagandistische Berichterstattung zu bekämpfen."

Die Feinde der Demokratie sind stark gerüstet, das haben wir zuletzt bei dem Skandal um das elektronische Beratungsunternehmen Cambridge Analytica gesehen.

Jochen Leidner Professor für Künstliche Intelligenz an der Hochschule Coburg
Jochen Leidner, Professor für Künstliche Intelligenz an der Hochschule Coburg. Quelle/Rechte: Jochen Leidner 2 min
Bildrechte: Quelle/Rechte: Jochen Leidner

MDR AKTUELL Mo 01.07.2024 18:00Uhr 01:54 min

https://www.mdr.de/wissen/bildung/audio-2680466.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Jochen Leidner, Professor für Künstliche Intelligenz an der Hochschule Coburg. Quelle/Rechte: Jochen Leidner 2 min
Bildrechte: Quelle/Rechte: Jochen Leidner
2 min

MDR AKTUELL Mo 01.07.2024 18:00Uhr 01:54 min

https://www.mdr.de/wissen/bildung/audio-2680466.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Audio

Wie funktioniert der Textscanner?

Um Texte sozusagen auf ihren Propagandagehalt zu überprüfen, haben Leidner und sein Team einen Textscanner entwickelt, der Texte anhand von sprachlichen Merkmalen auf seine Verzerrungen überprüft. Dieser liegen 27 sogenannte Bias-Typen zugrunde. Die auf künstlichen neuronalen Netzen basierende Anwendung kann einfach über den Browser als Plug-in (Software-Erweiterung) installiert werden und fährt dann bei beim Lesen der Texte automatisch über die Inhalte. Propagandistische Stellen werden farblich eingefärbt und mit Begründungen hinterlegt. Gleichzeitig wird die Stärke der Beeinflussung auf einer Skala angezeigt. Der Textscanner wurde unter der Überschrift "Improved Models for Media Bias Detection and Subcategorization" auf der "European Conference on Information Retrival " in Glasgow sowie der "International Conference on Natural Language & Information Systems" in Turin vorgestellt.

Nachrichtenmedien sind Manipulationen ausgesetzt

"Eine objektive und vertrauenswürdige Berichterstattung ist für die Aufrechterhaltung demokratischer politischer Systeme von entscheidender Bedeutung", erklären die Autoren Jochen Leidner und Tim Menzner in ihrem Paper. Allerdings seien die Nachrichtenmedien Manipulationen ausgesetzt, einerseits durch Einflussnahme (Propaganda) von außen als auch von innen (Agenda der Eigentümer eines Nachrichtenmediums). Wichtig sei es, eine Voreingenommenheit zu erkennen, dabei solle der Bias-Textscanner hilfreich sein.

Screenshot des Bias-Scanners der Uni Coburg
Der Bias-Textscanner der Hochschule Coburg zeigt genau auf, wo es im Text Hinweise auf Manipulationen und Erklärungen gibt und liefert Erklärungen hinzu. Bildrechte: MDR Wissen

Propaganda im Gegensatz zur Parteilichkeit immer absichtlich

Um überhaupt eine Beeinflussung zu messen, unterscheiden die KI-Forscher zwischen Voreingenommenheit und Propaganda. "Die Voreingenommenheit der Medien kann als die Tendenz beschrieben werden, bewusst oder unbewusst über eine Nachricht in einer Weise zu berichten, die ein bereits bestehendes Narrativ unterstützt, anstatt eine unvoreingenommene Berichterstattung über ein Thema zu liefern", schreiben Leidner und Menzner. "Im Gegensatz dazu wird Propaganda neutral als systematische Form der zielgerichteten Überredung definiert mit dem Ziel, Emotionen, Einstellungen, Meinungen und Handlungen für ideologische, politische oder kommerzielle Zwecken zu nutzen." Dabei würden einseitige sachliche oder auch nicht sachliche Botschaften über Massen- und direkte Medienkanäle übermittelt.

Propaganda ist im Gegensatz zur Parteilichkeit immer absichtlich.

Jochen Leidner & Tim Menzner KI-Forscher Hochschule Coburg

"Propaganda ist im Gegensatz zur Parteilichkeit immer absichtlich", erklären die Forschenden. Ihr Anspruch ist es, mit dem Textscanner sowohl Voreingenommenheit als auch Propaganda zu erkennen. Doch wie definieren sie, was unvoreingenommen ist? Wie wollen sie mit künstlicher Intelligenz bestimmen, was neutrale Positionen in Konflikten sind – zum Beispiel im Israel-Gaza- sowie Russland-Ukraine-Krieg?

27 Bias-Kategorien messen Einflussnahme

"Unser Bias-Scanner basiert auf einem neuronalen Netz ("deep learning") und erkennt derzeit 27 Bias-Arten von Einflussnahmen", erklärt KI-Forscher Leidner. Dazu gehöre beispielsweise der Diskriminierungs-Bias, "bei dem eine Person oder Gruppe wie beispielsweise Minderheiten angegriffen werden, nur, weil sie sind wer sie sind" oder auch der Falsche-Dichotomie-Bias, "bei dem irreführenderweise suggeriert wird, es gebe nur zwei Handlungsmöglichkeiten, obwohl es viele Optionen gibt". Leidner zufolge würde jede Einflussnahme in ihrer Stärke (0,1 mäßig bis 1,0 stark) beurteilt.

Beispiel für Beeinflussung: "Entweder wir gehen zu einem Polizeistaat über oder wir lassen Kriminelle frei herumlaufen"

Leidner nennt ein Beispiel für den Falsche-Dichotomie-Bias. "Bei dem Satz: 'Entweder wir ändern das Gesetz, um der Polizei mehr Befugnisse zu geben, oder wir akzeptieren die Kriminalität auf unseren Straßen', handelt es sich laut unserem Modell um eine mäßige Einflussnahme (0,6)." Die Aussage "Es ist ganz einfach: Entweder wir gehen zu einem Polizeistaat über oder wir lassen Kriminelle frei herumlaufen", sei hingegen schon eine höhere Beeinflussung (0,9).

Woher kommen die Daten – und wo gehen sie hin?

Doch sind die Algorithmen nicht immer nur so gut, wie sie programmiert werden? Lässt sich nicht durch die Konzentration auf eine bestimmte Art der Einflussnahme auch schon wieder Einfluss nehmen? "Wir füttern den Computern mit Beispielsätzen, die Beispiele sind so ausgewählt, dass die 27 Typen gleich verteilt sind", erklärt Leidner. "Dafür verwenden wir Daten verschiedener Forschungsgruppen."

Datenschutz: "Wir wissen nicht, wer Sie sind"

Gleichzeitig leiste die Software Leidner zufolge Datenschutz. "Wir heben keine Daten auf, wir wissen nicht, was Sie lesen und wer Sie sind", erklärt der KI-Experte. "Sie können aber ihre Daten anonym nach jeder Verwendung spenden, dafür ist ein Knopf installiert." Ziel sei es, dass viele Nutzer ihre Daten spenden. "Wir wollen als Forscher nicht die Gatekeeper sein. Je mehr Daten gespendet werden, desto weniger Einfluss haben wir." Verschiedene Daten aus verschiedensten Gruppen ermöglichten eine hohe Diversität und damit verbunden einen immer leistungsfähigeren Textscanner. Der Textscanner kann in englischer und deutscher Sprache genutzt werden.

"Ich wünsche mir, möglichst vielen Bürgern eine Leseunterstützung bieten zu können, die das eigene kritische Lesen unterstützt", sagte Leidner. "Wir nutzen ja schon Brillen und Lupen als optische Lesehilfen. In Zeit der Desinformation ist es Zeit, auch inhaltlich Hilfe zu bekommen, ohne bevormundet zu werden."

Artikel/Studie

Menzner, T. und J.L. Leidner (2024) "Experiments in News Bias Detection with Pre-trained Neural Transformers" Proc. ECIR 2024, Glasgow
https://link.springer.com/chapter/10.1007/978-3-031-56066-8_22 
Der Textscanner kann hier in einer Demoversion getestet werden: https://biasscanner.org/#demo
Hier kann das Plug-in für Firefox heruntergeladen werden, ein Plug-in für Chrome soll folgen, ebenso Android und iOS für mobile Geräte.

Dieses Thema im Programm: MDR SACHSEN - Das Sachsenradio | Zwischen Algorithmen und Empathie - Wie sozial ist KI? | 19. März 2024 | 20:00 Uhr

Mehr zum Thema