
Künstliche Intelligenz Warum ein KI-Spiegel Männern manchmal Brüste verleiht
Hauptinhalt
03. April 2025, 05:00 Uhr
Will ein Mann im "Smart Mirror" ein Kleid ausprobieren, verleiht der KI-Spiegel ihm gleich noch Brüste; im Superhelden-Kostüm gibt es dagegen für Frauen und Männer gleichermaßen einen ordentlichen Sixpack. Mit dem Spiegel will die KI-Forscherin Vanessa Kuhfs über die Funktionsweise von Künstlicher Intelligenz aufklären und zum Nachdenken anregen. Auch zum Girls' Day gibt sie einen Workshop dazu.
MDR AKTUELL: Ein Spiegel zum Girls' Day klingt auf den ersten Blick nicht danach, Klischees aufzubrechen. Wie kam es zur Idee des "Smart Mirror" oder "Magic Mirror"?
Vanessa Kuhfs: Häufig spricht man ja davon, dass Künstliche Intelligenz eine Art Spiegel der Gesellschaft ist. Denn die Probleme, die wir ohnehin haben, bringen wir in die Technologie wieder mit rein. So ist die Idee von einem digitalen Spiegel entstanden, um die Prozesse, Verzerrungen und wie Künstliche Intelligenz die Daten gewichtet, am eigenen Körperbild zu sehen. Wenn an meinem Körper etwas passiert, sehe ich die Unterschiede und, dass etwas nicht stimmt. So ist der "Smart Mirror" ein sehr gutes Reflexionstool, um am eigenen Körperbild komplexe technische Zusammenhänge zu verdeutlichen.
Zur Person: Vanessa Kuhfs Die Designerin Vanessa Kuhfs forscht am KI-Kompetenzzentrum ScaDS.AI und an der Kunsthochschule Burg Giebichenstein zu Gestaltungsmöglichkeiten rund um KI. Zusammen mit dem Data-Scientist Johannes Häfner zeigt sie in Workshops die Möglichkeiten und Grenzen von Künstlicher Intelligenz auf - unter anderem anhand des "Smart Mirrors".
Wer sich vor den "Smart Mirror" stellt, kann mit einem einfachen Sprachbefehl das eigene Aussehen verändern. In einem kleinen Test haben wir gerade schon gesehen: Wenn ein Mann den Spiegel um ein Abendkleid bittet, verändert sich nicht nur die Kleidung, sondern plötzlich hat er auch Brüste. Woran liegt das?
Das zeigt sehr gut, wie die KI funktioniert. Denn wie viele frei verfügbare Daten gibt es im Internet von Männern, die Kleider tragen? Das ist eine eher unterrepräsentierte Gruppe in den Trainingsdaten, die in unserem Spiegel stecken. Stattdessen hat das KI-Modell gelernt: Menschen in Kleidern haben meistens Brüste. Außerdem besteht das Trainingsmaterial auch aus pornografischen Inhalten und insgesamt zu großen Teilen aus idealisierten Schönheitsbildern. Es ist also die logische Konsequenz, dass die KI ihre Ergebnisse entlang dieser Schönheitsnormen generiert.
Gab es denn in letzter Zeit überraschende Entwicklungen oder Erkenntnisse in der KI-Forschung, die Sie besonders beeindruckt haben?
Vor ein paar Wochen habe ich wieder mal ein kleines Selbstexperiment mit ChatGPT gemacht und darum gebeten, mir eine Person zu generieren, die den Haushalt gründlich macht. Das ist ein typischer Bias-Test, um zu schauen: Wie wird jetzt ein Bild generiert? Es wird ja viel über das Thema Diskriminierung, Verzerrung und realistische Darstellung diskutiert. Umso überraschender war es für mich, als der Chatbot als Antwort eine Frau aus Ostdeutschland, mit Dialekt gegeben hat.
Warum ist das für mich überraschend? Da ich mich mit dem Thema befasse, sehe ich, wie viele Bemühungen gerade stattfinden, dass wir solche verzerrten Bilder nicht länger mittragen wollen. Von politischer Seite gibt es Bemühungen, aber auch der gesellschaftliche Druck ist sehr hoch. Trotzdem passieren bei so großen Playern immer noch typische Fehler, die reproduziert werden. Neben allen technischen Entwicklungen und neuen Modellen, dass alles schneller und effizienter wird, haben wir die grundlegende Problematik noch nicht geklärt.
Finden denn gar keine Lerneffekte statt - bei denen, die die KI entwickeln oder nutzen?
Das ist gar nicht so einfach zu beantworten. Wir können Künstliche Intelligenz nicht losgelöst von unserem sozialen, alltäglichen, gesellschaftlichen Leben analysieren, weil unser Verhalten in der realen Welt in diese Daten wieder eingespeist wird. Die Frage von einer diskriminierungsfreien KI ist eine ganz elementare. Kann denn Technik wertfrei oder neutral sein, wenn wir es nicht sind? Wir Menschen haben dieses Schubladendenken in uns drin, da nehme ich mich auch nicht raus.
Wie KI trainiert wird
Um ein KI-Modell zu trainieren, sind riesige Datenmengen nötig. Je nach der künftigen Aufgabe des KI-Modells kommen verschiedene Algorithmen zum Einsatz und auch die Daten unterscheiden sich: etwa leicht zugängliche Bilder und Texte aus dem Internet oder auch spezifische Gesundheitsdaten, aufgrund derer die KI dann bei der schnelleren Diagnose von Krankheiten helfen soll.
Anhand der Daten erlernt die KI Muster, um dann mithilfe von Wahrscheinlichkeiten Vorhersagen zu treffen und Entscheidungen zu fällen. Die Qualität der Daten entscheidet also auch über die Antworten, die eine KI später generiert. Bevor ein KI-Modell überhaupt mit Daten gefüttert werden kann, müssen diese in Handarbeit etikettiert, hochgeladen oder eingesprochen werden.
Wenn ich an feministischen Methoden zur Technikentwicklung forsche, hat das ganz viel damit zu tun: Wie stark lenke ich selbst wohin? Zwar habe ich den Anspruch einer verzerrungsarmen KI. Aber so einfach lässt sich das nicht schaffen, wenn nicht auch in unserer analogen Welt mehr Verständnis füreinander entsteht.
Wie feministisch oder insgesamt diskriminierungsfrei kann KI überhaupt sein?
Da können wir an mehreren Punkten ansetzen. Zum einen können wir schauen, welche Daten wir haben. Wie gut sind die bereinigt? Wie gut können wir im Finetuning Verzerrungen wieder künstlich zurücknehmen, damit Endanwenderinnen oder Endanwender nicht tagtäglich mit diesen Verzerrungen konfrontiert werden.
Außerdem können wir schauen: Wer sind die Entwicklerinnen oder Entwickler, die die Modelle bauen? Wir bringen ja alle unsere persönlichen Erfahrungen mit, unsere Werte, unsere Vorurteile und Ziele, die wir verfolgen. Also ist die Frage, wie auch marginalisierte Menschen eine Stimme in der Entwicklung bekommen.
In den USA hat Präsident Donald Trump der "Wokeness" den Kampf angesagt und bereits Begriffe wie "Frau", "LGBT" oder "Rassismus" aus Regierungsdokumenten streichen lassen. Welche Auswirkungen könnte das auf die KI-Modelle haben, die auch bei uns genutzt werden?
Die KI-Modelle von Open AI, Copilot von Microsoft und von anderen Anbietern haben einen sehr großen Einfluss darauf, wie wir damit arbeiten. Es ist ein Trugschluss zu denken, wir sind losgelöst von der globalen Welt - gerade in der Technologie. In den KI-Modellen stecken sehr spezifische Werte, die wir wieder reproduzieren, die aber gar nicht die ganze Welt abbilden können. Umgekehrt profitieren von dieser Technologie am wenigsten die Menschen, die zum Beispiel die meiste Datenarbeit dafür leisten.
Dabei hat die Technologie auch Einfluss auf Entscheidungssysteme: Wie werde ich später mal eine Wohnung bekommen? Wie ist meine Gesundheitsakte? Wie wird vielleicht vorhergesagt, wie ich mich verhalte? Solche Dinge kennen wir nicht nur aus Science Fiction, sondern in manchen Ländern sind sie schon üblich. Deswegen ist es sehr wichtig zu schauen: Was passiert in den Ländern, die diese Technologie entwickeln und wie gehen wir damit um? Nutzen wir die Systeme weiter? Entwickeln wir eigene Modelle? Haben wir überhaupt die Infrastruktur?
Was ist da Ihr Ansatz: Wie unabhängig sollten oder können wir uns im Bereich KI machen?
Häufig kommen da Reaktionen wie Ohnmacht, Technikverteufelung oder umgekehrt ein Sehnen nach Technik-Utopien. In meiner Arbeit versuche ich deshalb, darüber aufzuklären: Was bedeutet Künstliche Intelligenz? Wie viel Intelligenz ist in dieser Technologie eigentlich drin? Wie viel Angstmache und wie viel mediale Narrative werden auch gestreut?
Wir sollten nicht vergessen, welche Handlungsmöglichkeiten wir haben. Beispielsweise gibt es eine sehr große Open-Source-Community. Technologieaktivisten und -aktivistinnen entwickeln ihre eigenen Modelle und schauen: Wie können wir Probleme von uns aus Community-basiert lösen. Das ist ein super spannendes Gegengewicht und auch Druckmittel zu den Big-Tech-Playern, die darüber bestimmen, wie wir solche Technologie benutzen.
Künstliche Intelligenz ist da und das sollten wir erst mal anerkennen. Die Augen zu verschließen, schließt auch wieder die Handlungsräume. Aber an der Stelle ist das Wichtigste Kompetenzbildung, Aufklärung und Sichtbarmachung, wo die Probleme der Technologie sind. Dann gewinne ich eine Entscheidungs- und Handlungsmacht zurück und ich kann souverän Teil dieser Technologieentwiscklung auch als Bürgerin, als Schülerin, als Rentnerin sein.
Sie selbst sind keine Informatikerin, sondern Designerin. Für was möchten Sie die Mädchen beim Girls' Day in erster Linie begeistern?
Mir ist wichtig, den Mädchen Perspektiven aufzuzeigen, dass Künstliche Intelligenz nicht nur ein Thema für Informatikerinnen ist. Wir brauchen ganz viele verschiedene Perspektiven, die in die Entwicklung einfließen: kreative und kritische Denkerinnen, aber auch die Entwicklerinnen und die Machine-Learning-Expertinnen. Wenn die alle zusammenarbeiten, können sie in der täglichen Arbeit voneinander lernen, die Perspektive wechseln und auch mal die Zielstellung ändern.
Ist es beispielsweise sinnvoll, Modelle immer größer, besser, schneller und performativer zu gestalten? Oder ist die Zielstellung: Wie kann ich möglichst viele Menschen daran teilhaben lassen? Wie kann ich garantieren, dass nicht Verzerrungen, Falschinformationen und andere schädliche Inhalte reproduziert werden? Wir haben unheimlich viel Macht und Verantwortung, wenn wir solche Systeme entwickeln. Der erste Schritt ist, sich das selbst bewusst zu machen.
Girls' Day
Der Girls‘ Day ist ein bundesweiter Aktionstag, der Mädchen dazu ermutigen will, sich stärker auch für Berufsfelder zu interessieren, in denen Frauen aktuell unterrepräsentiert sind. Dazu zählt insbesondere der sogenannte MINT-Bereich: Berufe aus Mathematik, Informatik, Naturwissenschaften und Technik.
Gleichzeitig wirbt der Boys‘ Day dafür, dass sich Jungs stärker für Berufszweige interessieren, die noch vor allem weiblich geprägt sind: beispielsweise soziale, pädagogische und pflegerische Berufe.
Dieses Thema im Programm: MDR AKTUELL FERNSEHEN | 03. April 2025 | 21:45 Uhr
Not Found
The requested URL /api/v1/talk/includes/html/11557821-b07d-424b-a7a9-66ab596e7e52 was not found on this server.