Illustration eines Roboters, der den Kopf eines anderen Roboters in der Hand hält
Ab wann kann man bei Künstlicher Intelligenz von einem Bewusstsein sprechen? Derzeit noch nicht, sagen Forscher. Aber vielleicht schon bald. Bildrechte: IMAGO / Shotshop

Künstliche Intelligenz Kann die KI ein Bewusstsein entwickeln? Und woran würden wir es merken?

12. September 2023, 16:22 Uhr

Laut einer Studie zeigen ChatGPT und Co. erste Hinweise darauf, dass sie ein Bewusstsein entwickeln. Irgendwann könnten alle Kriterien auf der Liste erfüllt sein. Doch ist die KI dann wirklich intelligent?

Treffen sich ein Neurowissenschaftler, ein Philosoph und ein Informatiker und diskutieren darüber, was Bewusstsein ist. Wenn man ChatGPT fragt, wie diese Geschichte weitergeht, wenn sie ein Witz wäre, kommen Vorschläge wie:
Der Philosoph sagt: "Bewusstsein ist die Essenz unserer Existenz und das Fenster zur Wahrheit." Der Neurowissenschaftler erwidert: "Es ist eher ein biologischer Prozess in unserem Gehirn." Der Informatiker überlegt kurz und sagt dann: "Es klingt wie ein Bug, nicht wie ein Feature."

Wenn man aber nicht ChatGPT fragt, sondern in eine veröffentlichte Studie schaut, sieht man, dass aus den unterschiedlichen Denkansätzen dreier so verschiedener Forschungsrichtungen auch Gemeinsames entstehen kann, mit dem alle drei Fachgebiete offenbar gut leben können. Im konkreten Fall entstand eine Art Checkliste mit Kriterien. Und je mehr dieser Kriterien bei einem KI-System erfüllt sind, umso eher sollte man dann davon ausgehen, dass dieses System ein Bewusstsein hat.

Die vermutlich beruhigende Nachricht zuerst: Noch erfüllt keine der in der Studie untersuchten KI-Formen genügend Indikatoren, um als ernsthafter Bewusstseinskandidat durchzugehen. Einzelne Kriterien wurden aber durchaus schon erfüllt, zum Beispiel von ChatGPT.

Theoretischer Ansatz besser als praktischer?

Es gibt viele neurowissenschaftliche Theorien, die die biologischen Grundlagen des Bewusstseins beschreiben. Es besteht jedoch kein wissenschaftlicher Konsens über "die eine richtige Theorie". Deshalb verwendeten die 19 Studienautoren aus Neurowissenschaft, Philosophie und Informatik mehrere Bewusstseinstheorien. Die Idee dahinter: Wenn ein KI-System Aspekte aus mehreren Theorien erfüllt, dann ist die Wahrscheinlichkeit größer, dass man wirklich von einem vorhandenen Bewusstsein ausgehen muss. So ein theoretischer Ansatz sei besser als ein praktischer Verhaltenstest, wo man beispielsweise ChatGPT fragt, ob er bei Bewusstsein ist, oder ihn anders herausfordert und beobachtet, wie er reagiert. KI-Systeme seien mittlerweile zu gut darin, Menschen nachzuahmen, argumentieren die Studienautoren.

Um eine für KI-Systeme taugliche Checkliste mit Kritieren zu entwickeln, gingen die Autoren davon aus, dass Bewusstsein damit zusammenhängt, wie Systeme Informationen verarbeiten, unabhängig davon, woraus sie bestehen – seien es Neuronen, Computerchips oder etwas anderes. Dieser Ansatz wird als "Computational Functionalism" ("rechnerischer Funktionalismus") bezeichnet. Theorien, die mit diesem Ansatz nicht kompatibel sind, kamen nicht in Betracht. Mit anderen Worten: Die Forscher sorgten schon in den Voraussetzungen dafür, dass Lebewesen keinen Bewusstseinsvorsprung haben, nur weil sie Lebewesen sind.

14 Kriterien aus verschiedenen Theorien zum Bewusstsein

Auf der Grundlage dieser Annahmen wählte das Team unterschiedliche Theorien zum Bewusstsein aus. Eine davon, die Global-Workspace-Theorie, besagt beispielsweise, dass Menschen und Tiere viele spezialisierte Systeme (die man auch Module nennen kann) verwenden, um kognitive Aufgaben wie Sehen und Hören auszuführen. Diese Module arbeiten unabhängig, aber parallel, und sie tauschen Informationen durch die Integration in ein einziges übergeordnetes System (den "globalen Arbeitsraum") aus.

Auch bei KI könne man bewerten, ob sie einen aus dieser Theorie abgeleiteten Indikator anzeigt, sagt Co-Autor Robert Long, Philosoph am "Center for AI Safety", einer gemeinnützigen Forschungsorganisation in San Francisco, "indem man sich die Architektur des Systems und den Informationsfluss durch das System ansieht".

Alle einbezogenen Theorien und die 14 daraus abgeleiteten Kriterien fasste die Forschungsgruppe in einer (englischsprachigen) Tabelle zusammen.

14 Kriterien für Bewusstsein bei Künstlicher Intelligenz
Bildrechte: P. Butlin et al.

Für eine deutsche Übersetzung der Tabelle hier aufklappen.

Theorie der rekurrenten Verarbeitung
RPT-1: Eingabemodule mit algorithmischer Rekursion
RPT-2: Eingabemodule, die organisierte, integrierte Wahrnehmungsrepräsentationen erzeugen

Theorie des globalen Arbeitsbereichs
GWT-1: Mehrere spezialisierte Systeme, die parallel arbeiten können (Module)
GWT-2: Arbeitsraum mit begrenzter Kapazität, was einen Engpass im Informationsfluss und einen Mechanismus der selektiven Aufmerksamkeit
GWT-3: Globale Übertragung: Verfügbarkeit von Informationen im Arbeitsraum für alle Module
GWT-4: Zustandsabhängige Aufmerksamkeit, die zu der Fähigkeit führt, den Arbeitsraum zu nutzen Module nacheinander abzufragen, um komplexe Aufgaben auszuführen

Computergestützte Theorien höherer Ordnung
HOT-1: Generative, top-down oder verrauschte Wahrnehmungsmodule
HOT-2: Metakognitive Überwachung, die zuverlässige Wahrnehmungsrepräsentationen von Rauschen unterscheidet
HOT-3: Handeln, das durch ein allgemeines System zur Überzeugungsbildung und Handlungsauswahl gesteuert wird, und eine starke Neigung, Überzeugungen in Übereinstimmung mit den Ergebnissen der metakognitiven Überwachung zu aktualisieren
HOT-4: Spärliche und glatte Kodierung, die einen "Qualitätsraum" erzeugt

Theorie der Aufmerksamkeitsschemata
AST-1: Ein prädiktives Modell, das die Kontrolle über den aktuellen Zustand der Aufmerksamkeit darstellt und ermöglicht

Prädiktive Verarbeitung
PP-1: Eingabemodule mit prädiktiver Kodierung

Handlungsfähigkeit und Verkörperung
AE-1: Handlungsfähigkeit: Aus Rückmeldungen lernen und Outputs auswählen, um Ziele zu verfolgen, insbesondere wenn dies eine flexible Reaktion auf konkurrierende Ziele beinhaltet
AE-2: Verkörperung: Modellierung von Output-Input-Kontingenzen, einschließlich einiger systematische Effekte, und Verwendung dieses Modells bei der Wahrnehmung oder Kontrolle

Kein Bewusstsein, aber wie lange noch?

"Unsere Analyse deutet darauf hin, dass kein aktuelles KI-System über Bewusstsein verfügt", schreiben die Autoren in der Studie, "aber auch, dass es keine offensichtlichen technischen Hindernisse für die Entwicklung von KI-Systemen gibt, die diese Indikatoren erfüllen." Soll heißen: Künstliche Intelligenz mit Bewusstsein ist wohl nur eine Frage der Zeit. Zumindest nach dieser Definition von Bewusstsein.

Andererseits könnte man eben wegen der Beschränkung auf den "Computational Functionalism" behaupten, dass durch den Studienaufbau schon relativ klar war, was herauskommen könnte. Wenn Bewusstsein nicht nur auf Lebewesen beziehungsweise auf biologische Gehirne beschränkt ist, sondern auch in Computern auftreten kann, dann ist natürlich theoretisch nichts unmöglich. Auch lässt die Tatsache, dass einige der Studienautoren im März an dem Offenen Brief beteiligt waren, in dem sechs Monate KI-Pause gefordert wurden, die Vermutung zu, dass hier eher KI-kritische Wissenschaftler am Werk waren.

Als Diskussionsgrundlage taugt die Studie aber in jedem Fall. "Ich bin mit manchen Annahmen nicht einverstanden, aber das ist völlig in Ordnung, denn ich könnte mich durchaus irren", sagt zum Beispiel Neurowissenschaftler Anil Seth, Direktor des Zentrums für Bewusstseinswissenschaft an der University of Sussex (Vereinigtes Königreich). Was jedoch deutlich werde, sei, "dass wir präzisere, besser erprobte Bewusstseinstheorien brauchen".

Und auch die Studienautoren sagen, dass ihr Forschungspapier noch lange keine endgültige Sicht auf die Bewertung von KI-Systemen hinsichtlich des Bewusstseins darstellt und dass sie sich wünschen, dass andere Forscher bei der Verfeinerung ihrer Methodik helfen.

(rr)

Mehr zum Thema

Roboter spielt Klavier 4 min
Bildrechte: IMAGO / Science Photo Library
404 Not Found

Not Found

The requested URL /api/v1/talk/includes/html/e3cfa5ee-8736-46d6-9536-f86a0e722b23 was not found on this server.