Digitalisierung Gefahr KI: Warum wir Transparenz und Regeln brauchen

12. August 2023, 15:08 Uhr

Künstliche Intelligenzen sind in immer mehr sensible Entscheidungsprozesse involviert. Längst geht ihr Einfluss über das Generieren von Bildern oder Texten hinaus. Das birgt auch enorme Gefahren, erklärt Experte Sebastian Stober aus Magdeburg. Er meint: Wir müssen klare Regeln und Visionen zum Umgang mit KIs entwickeln. Nur dann könnten die KIs Menschen wirklich nutzen. Ansonsten drohten enorme Probleme, die Sachsen-Anhalt sich nicht leisten könne – weder wirtschaftlich noch gesellschaftlich.

MDR San Mitarbeiter Schubert Leonard
Bildrechte: MDR/punctum.Fotografie/Alexander Schmidt

Längst haben Künstliche Intelligenzen (KIs) Einzug ins Leben in Sachsen-Anhalt gehalten und wir uns an ihre Anwesenheit im Alltag gewöhnt. Ob in der Spam-Erkennung des Mailprogramms, im Staubsaugerroboter oder bei Beauty-Filtern auf Instagram: überall stecken Programme drin, die bis zu einem bestimmten Maße selbstständig Aufgaben erledigen können. Zuletzt hat die KI-Entwicklung gewaltige Sprünge gemacht, Programme zur Bild- oder Text Generierung sind in aller Munde.

Auch MDR SACHSEN-ANHALT hat sich von einer KI Bilder generieren lassen und geschaut, wie sich das Programm Menschen in verschiedenen Städten vorstellt. Die Produkte haben viele Menschen begeistert. Doch ist das eigentlich in Ordnung? Einige Künstlerinnen und Künstler kritisieren, die Programme zerstörten die Kunst oder bedienten sich an bestehenden Kunstwerken.

Regeln für KIs: Politik gefragt

Der KI-Experte Sebastian Stober (Universität Magdeburg) findet die Auswirkungen der KIs auf Kunst schwer zu beantworten. Grundsätzlich könne die KI Künstlerinnen und Künstler nicht einfach ersetzen, da Kunst immer etwas ausdrücken und transportieren solle. Dies könne die KI, zumindest bisher, nicht. Daher betrachte er die bildgenerativen KIs momentan eher als eine Art Werkzeug, das bei der Kreation bestimmter Inhalte helfen könne, allerdings zur Gefahr zum Beispiel für Stockfotografen werden könne. "Es ist vielleicht wie bei der Erfindung der Fotografie. Die hat Maler auch nicht überflüssig gemacht. Aber sie hat die Kunst beeinflusst."

Hochproblematisch sei jedoch, dass die KIs derzeit mit Bilddatenbanken trainiert würden, ohne, dass klare Regelungen für die Nutzung bestünden. "Da bin ich definitiv bei den Leuten, die sich gerade darüber aufregen, dass ihre Daten ungefragt benutzt werden, um die KIs zu trainieren. Und dann wird mit diesen KIs auf Grundlage ihrer Daten Kunst generiert, die ihnen Konkurrenz macht." Ähnliche Probleme gebe es derzeit beim Training für Chatbots mit Textdaten.

"Da muss sich was tun! Und ich wundere mich, dass wir da so hinterherhinken, denn die generativen KIs gibt es ja nicht erst seit gestern. Deepfakes gibt es schon seit 2017. Irgendwie hat die Politik das verschlafen. Ich würde mir wünschen, dass da proaktiver vorgegangen wird."

KI kann bei falscher Nutzung zu großer Gefahr werden

Dass Regelungen fehlen, findet Stober in anderen KI-Einsatzbereichen noch deutlich problematischer. "KIs, die im Hochfrequenzbereich an der Börse agieren. KIs, die zu Überwachungszwecken eingesetzt werden. In den USA gibt es ein KI-System, das entscheidet, ob Leute früher auf Bewährung aus dem Gefängnis rauskommen. COMPAS. Das ist massiv rassistisch. Und wird trotz großer Kritik eingesetzt." In Arbeitsämtern in Österreich werde durch KI zum Teil über Fördermaßnahmen entschieden, dabei würden häufig Frauen diskriminiert. In der Meinungsforschung werde mit KI gearbeitet und große Mengen Daten ausgewertet, um etwa Einstellungen zu Marken, zu Parteien und mehr herauszufinden.

In den USA gibt es ein KI-System, das entscheidet, ob Leute früher auf Bewährung aus dem Gefängnis rauskommen. Das ist massiv rassistisch.

Sebastian Stober, KI-Experte

Zudem bemängelt Stober die Intransparenz vieler KIs. "Im Moment sind viele KIs noch wie eine Blackbox. Es kommt irgendwas heraus, aber wir wissen nicht, warum." So würden KIs in vielen Bereichen eingesetzt, ohne dass wirklich verstanden werde, was da eigentlich passiere. Das sei grob fahrlässig. "Davon geht meiner Meinung nach die größte Gefahr aus."

Lösungen: Mehr Transparenz und klare Gesetze

Damit die KIs als positive Unterstützung für die Menschen funktionieren, statt eine Gefahr darzustellen, setzt Stober sich in seiner Arbeit daher intensiv für mehr Transparenz ein. Dazu, sagt Stober, brauche es eine intensive Auseinandersetzung damit, wie wir als Gesellschaft mit KIs umgehen wollen. Um die zu erreichen, sei ein Diskurs auch auf politischer, juristischer und ethischer Ebene nötig.

"Wir müssen viel mehr darüber reden: Wo wollen wir KI eigentlich einsetzen? Und wo nicht? Und was sind die Folgen?", sagt Stober. "Wir müssen darüber reden, dass Entscheidungsträger am Ende trotzdem noch Verantwortung tragen. Weil diese am Ende entscheiden, wo welche KI eingesetzt wird." Wenn etwas passiere, könne man das nicht einfach auf die KI schieben. Politik und Justiz seien gefordert, Regeln zu entscheiden und umzusetzen. Idealerweise entsprächen diese Regelungen dann dem Willen der Gesellschaft.

Frühzeitiges Eingreifen in Entwicklungsprozesse

Des Weiteren sei ein frühzeitiges Eingreifen in Entwicklungsprozesse nötig. Ansonsten würden Produkte ohne jedwede Regelungen und Mitsprache entwickelt. "Dann geben sie uns praktisch vor, wie die Regeln sind. Das können wir uns nicht leisten. Sowohl gesellschaftlich auch wirtschaftlich nicht." Momentan rutsche Deutschland aber immer weiter in Abhängigkeiten ab und werde abgehängt. Stober sagt, er verstehe nicht, wie die Politik diese Entwicklung verschlafen könne.

Es ist nicht schwer vorherzusagen, dass wir damit tierisch auf die Schnauze fallen werden.

Sebastian Stober, KI-Experte

Momentan fehle in vielen Bereichen die Expertise, um die Entwicklungen mitzugestalten. Stattdessen herrsche Goldgräberstimmung. Menschen nutzten KIs ohne jegliches Verständnis. "Es ist nicht schwer vorherzusagen, dass wir damit tierisch auf die Schnauze fallen werden", sagt Stober.

You are fucked – Deutschlands erste Cyberkatastrophe

Ein stilisierter Totenkopf und ein Bildschir, der ein berühren-verboten-Schild zeigt.
Bildrechte: MDR/Stefan Schwarz, Max Schörm
Ein stilisierter Totenkopf und ein Bildschirm, der eine zerbrochene Vase zeigt.
Bildrechte: MDR/Stefan Schwarz, Max Schörm
51 min

Der Landkreis Anhalt-Bitterfeld hat den Katastrophenfall ausgerufen. Aber gelöst ist dadurch nicht ein einziges IT-Problem. Außerdem: Das BSI kommt und eine IT-Firma ist nach neun Tagen wieder weg.

MDR SACHSEN-ANHALT Do 13.07.2023 00:01Uhr 50:59 min

Audio herunterladen [MP3 | 46,7 MB | 128 kbit/s] Audio herunterladen [MP4 | 93,6 MB | AAC | 256 kbit/s] https://www.mdr.de/mdr-sachsen-anhalt/podcast/you-are-fucked/audio-die-zerbrochene-vase-folge-zwei-100.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Audio
Ein stilisierter Totenkopf und ein Bildschirm, der ein Dokument zeigt.
Bildrechte: MDR/Stefan Schwarz, Max Schörm
Alle anzeigen (7)

Um dem entgegenzuwirken, sieht er auch Informatiker in der Pflicht, mehr Wissenschaftskommunikation zu machen. Ebenfalls die Medien, die sachlich über Chancen und Risiken informieren und Grundlagen für Debatten bieten sollten. Es sei wichtig, dass die Gesellschaft Visionen entwickeln könne, wohin die Entwicklungen gehen sollten.

MDR (Leonard Schubert)

Dieses Thema im Programm: MDR SACHSEN - Das Sachsenradio | Genial Digital | 11. August 2023 | 11:00 Uhr

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/c73c1703-bf0a-4adf-93e5-1fc10d7a0124 was not found on this server.

Mehr aus Sachsen-Anhalt