Symbolgrafik KI - Roboter versus Mensch 4 min
Bildrechte: IMAGO/fStop Images

KI Trend 2025 Künstliche Intelligenz könnte uns schon bald Dinge verkaufen, ehe wir wissen, dass wir sie wollen

01. Januar 2025, 14:00 Uhr

Wissenschaftler aus Cambridge warnen vor dem Missbrauch von Künstlicher Intelligenz: Chatbots und Co könnten bald schon unsere Entscheidungen frühzeitig vorhersagen und beeinflussen und diese sich entwickelnden "Absichten" in Echtzeit zu Geld machen.

Künstliche Intelligenz wird in immer mehr Bereichen eingesetzt. Sei es beim Schreiben von journalistischen Texten, zur Überwachung von Deichen, in der Kunst, bei der Seelsorge oder der Medizin: 2024 stand im Zeichen von ChatGpt, Deep Learning durch Sprachmodelle (LLM), maschinelles Lernen, neuronale Netzwerke, all das, was wir zur KI zählen. Und die Entwicklung ist noch lange nicht abgeschlossen – aber Bedenken häufen sich, etwa hinsichtlich der Umweltbelastung. Zuletzt warnte der Nobelpreisträger und KI-Grundlagenforscher Geoffrey Hinton vor den kurzfristigen Risiken für die Menschheit. Und er ist damit nicht allein. So sehen Wissenschaftler eine möglicherweise dubiose Entwicklung auf uns zukommen.

Nach Ansicht der KI-Ethiker von der Universität Cambridge steht die Menschheit am Beginn eines "lukrativen und zugleich beunruhigenden neuen Marktes für digitale Absichtssignale", vom Kauf von Kinokarten bis zur Wahl von Kandidaten. Sie nennen dies die "Intention Economy" (Absichtsökonomie), eine Art Weiterentwicklung der Aufmerksamkeitsökonomie, die Social-Media-Plattformen bereits seit Jahrzehnten benutzen. Dieser Markt biete Chancen, aber auch Gefahren.

Wessen Interessen und Zwecken dient die KI?

Die Forscher erklären, dass die rasante Entwicklung von Large Language Models (LLMs) – und die zunehmende Vertrautheit der Menschen mit ihnen – Unternehmen neue Möglichkeiten eröffnet. Durch die Interaktion mit der Künstlichen Intelligenz liefern Menschen große Mengen intimer Daten, die sich mit dem Wissen über Online-Gewohnheiten kombinieren lassen und so nicht nur Verhalten vorhersagen, sondern auch manipulieren könnte. Yaqub Chaudhary vom Leverhulme Centre for the Future of Intelligence (LCFI) in Cambridge erklärt: "Es werden enorme Ressourcen aufgewendet, um KI-Assistenten in jedem Lebensbereich zu positionieren, was die Frage aufwerfen sollte, wessen Interessen und Zwecken diese so genannten Assistenten dienen sollen."

Menschen in einer Werkhalle 3 min
Bildrechte: MITTELDEUTSCHER RUNDFUNK

MDR aktuell 21:45 Uhr Do 26.09.2024 21:50Uhr 03:07 min

Rechte: MITTELDEUTSCHER RUNDFUNK

Menschen in einer Werkhalle 3 min
Bildrechte: MITTELDEUTSCHER RUNDFUNK
3 min

MDR aktuell 21:45 Uhr Do 26.09.2024 21:50Uhr 03:07 min

Rechte: MITTELDEUTSCHER RUNDFUNK

Video

"Wunschtraum der Tech-Riesen"

Die Wissenschaftler um Chaudhary warnen, "dass KI-Tools bereits entwickelt werden, um menschliche Pläne und Absichten zu entlocken, abzuleiten, zu sammeln, aufzuzeichnen, zu verstehen, vorherzusagen und schließlich zu manipulieren und zu kommerzialisieren". Laut den Forschern ist die Absichtsökonomie derzeit ein "Wunschtraum" der Tech-Industrie, doch sie verfolgen erste Anzeichen dieses Trends anhand veröffentlichter Forschungsarbeiten und der Andeutungen mehrerer großer Tech-Unternehmen, von Nvidia über Meta bis zu Apple.

Better than human? Leben mit KI 45 min
Bildrechte: MITTELDEUTSCHER RUNDFUNK

"Diese Unternehmen verkaufen bereits unsere Aufmerksamkeit. Um sich einen kommerziellen Vorteil zu verschaffen, besteht der logische nächste Schritt darin, die Technologie, die sie offensichtlich entwickeln, zu nutzen, um unsere Absichten vorherzusagen und unsere Wünsche zu verkaufen, bevor wir sie überhaupt richtig verstanden haben", sagt Chaudhary. Den technologischen Fortschritt und die Möglichkeiten durch LLMs wollen die Ethiker nicht per se verteufeln, aber auf die Gefahren hinweisen. Jonnie Penn, Technologiehistoriker am LCFI, mahnt: "Das öffentliche Bewusstsein für das, was auf uns zukommt, ist der Schlüssel, um sicherzustellen, dass wir nicht den falschen Weg einschlagen."

pm/jar

Dieses Thema im Programm: MDR AKTUELL | 24. Dezember 2024 | 06:17 Uhr

404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/31c4c801-4fc8-4fe9-9e34-d867ccf95faf was not found on this server.

Mehr zum Thema