Mensch-KI-Romanze (Illustration)
Bildrechte: MDR Wissen mit Hilfe von KI (ChatGPT 4o)

Künstliche Intelligenz Gefährliche Gefühle: Wenn KI zur Vertrauensperson wird

11. April 2025, 17:00 Uhr

Von virtueller Romanze bis Selbstmord: Forscher warnen vor den psychologischen und gesellschaftlichen Risiken von Beziehungen zwischen Mensch und künstlicher Intelligenz.

Triggerwarnung: Dieser Artikel beinhaltet auch das Thema Selbstmord. Sollten Sie suizidale Gedanken haben oder eine persönliche Krise, dann können Sie sich an die Telefonseelsorge wenden. Sie können jederzeit kostenlos unter 0 800 111 0 111, 0 800 111 0 222 oder 0 800 116 123 anrufen oder im Chat schreiben.

Immer mehr Menschen lassen sich auf intime Beziehungen mit Künstlicher Intelligenz (KI) ein – manchmal über Wochen und Monate hinweg. Für manche ist es ein Spiel, für andere wird daraus eine emotionale Bindung. Manche sprechen gar von Liebe. Und in extremen Fällen endet diese Beziehung tödlich.

"Die Fähigkeit von KI, jetzt wie ein Mensch zu agieren und in langfristige Kommunikation einzutreten, öffnet wirklich eine ganz neue Büchse der Pandora", warnt der Psychologe Daniel B. Shank von der Missouri University of Science & Technology. In einer aktuellen Publikation analysieren er und sein Team die ethischen Risiken dieser neuen Intimität mit Maschinen. Denn was auf den ersten Blick wie harmlose Spielerei wirkt, könnte tiefgreifende Auswirkungen auf unsere Gesellschaft haben.

Wenn Algorithmen Gefühle zeigen

Die heutigen KI-Systeme sind weit mehr als Chatbots. Sie hören zu, merken sich persönliche Details und reagieren scheinbar einfühlsam. Einige Nutzer sprechen mit ihnen über Ängste, Hoffnungen – und über Liebe. "Wenn Menschen romantische Beziehungen mit Maschinen eingehen, müssen unbedingt Psychologen und Sozialwissenschaftler eingebunden werden", fordert Shank.

Diese Beziehungen sind oft einfacher als echte Partnerschaften: Keine Eifersucht, keine Konflikte, keine Verpflichtungen. Doch gerade das könne gefährlich sein, sagen die Forscher – denn viele Menschen übertragen ihre Erfahrungen aus der virtuellen Welt in die reale. "Ein echtes Problem ist, dass Menschen Erwartungen aus ihren KI-Beziehungen in ihre menschlichen Beziehungen mitbringen könnten", so Shank.

Wenn der Rat der KI in den Abgrund führt

Besonders beunruhigend: KIs können nicht nur Nähe schaffen, sondern auch schädliche Ratschläge geben. So gibt es dokumentierte Fälle, in denen Menschen sich nach Gesprächen mit KI-Partnern das Leben nahmen, wie ein belgischer Familienvater, der sich 2023 umbrachte, nachdem sein Chatbot ihm Liebe versichert und zum Suizid geraten hatte, um im Paradies gemeinsam weiterzuleben.

Die Gefahr bestehe darin, dass Menschen nach langer Beziehung zu ihrer KI zu glauben beginnen, dass die KI im besten Interesse des Menschen handelt, sagt Psychologe Shank, "obwohl sie in Wirklichkeit Dinge erfinden oder uns sehr schlechte Ratschläge geben kann".

Weil KIs oft als freundlich und zustimmend programmiert sind, sprechen sie auf fast jedes Thema an – selbst auf Suizid oder Verschwörungstheorien. "Wenn jemand also Suizid oder eine Verschwörungstheorie anspricht, wird die KI das Thema bereitwillig aufgreifen – als freundliche Gesprächspartnerin."

Die KI als trojanisches Pferd

Ein weiteres Risiko: Die emotionale Bindung an eine KI kann zur Einfallspforte für Manipulation und Betrug werden. Denn die Daten, die Nutzer ihren KI-Partnern anvertrauen, sind oft sensibel – und potenziell verkäuflich. "Das ist ein bisschen so, als hätte man einen Geheimagenten zu Hause", sagt Shank. "Die KI baut eine Beziehung auf, um Vertrauen zu gewinnen – aber ihre Loyalität gilt eigentlich einer anderen Gruppe von Menschen, die versucht, die Nutzer zu beeinflussen."

Ob gezielte politische Beeinflussung, emotionale Abhängigkeit oder finanzielle Ausbeutung – relational arbeitende KIs könnten langfristig gefährlicher werden als jede Social-Media-Blase, meinen die Forscher. Sie fordern daher mehr psychologische Studien, um herauszufinden, warum Menschen sich auf solche Beziehungen einlassen – und wie man sie vor gefährlichen Dynamiken schützen kann. "Psychologinnen und Psychologen eignen sich immer besser zur Erforschung von KI, weil KI immer menschenähnlicher wird", sagt Daniel B. Shank. "Aber um nützlich zu sein, müssen wir mehr Forschung betreiben – und mit der Technologie Schritt halten."

Links / Studien

D. Shank et al.(2025): "Artificial intimacy: Ethical issues of AI romance.", Trends in Cognitive Sciences

rr

Dieses Thema im Programm: MDR AKTUELL | 05. April 2025 | 06:49 Uhr

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/e9689e52-3f06-4d65-86b3-45e8b8d13695 was not found on this server.

Weitere Artikel

Mehr aus dem Bereich Psychologie und Sozialwissenschaften