KI-Entwicklung Künstliche Intelligenz: Experten warnen vor Vernichtung der Menschheit
Hauptinhalt
02. Juni 2023, 14:25 Uhr
Künstliche Intelligenz ist eine enorme Chance für die Menschheit. Und im unregulierten Zustand zugleich eine enorme Bedrohung. Aber wie genau sieht diese Bedrohung eigentlich konkret aus? Sechs Risiken, vor den Experten aktuell warnen.
Zwischen Hype und Hab Acht: Während auf der einen Seite die Euphorie über neue technologische Möglichkeiten dank Künstlicher Intelligenz nach wie vor groß erscheint (zuletzt schlug beispielsweise die Writers Guild of America vor, die KI solle Drehbücher verfassen), gibt es auf der anderen Seite eine Reihe von Bedenken. So plädiert die Vorsitzende des Deutschen Ethikrates, Alena Buyx, aktuell für eine Entwicklungspause bei künstlicher Intelligenz, damit ethische und soziale Risiken zuerst abgewogen werden können. Auch die IT-Experten vom gemeinnützigen Center for AI Safety warnen aktuell vor einer unregulierten Entwicklung von KI. In ihrer Stellungnahme, die mehrere hundert Forschende unterzeichnet haben, steht nur ein Satz: Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.
Aussterben ist natürlich ein hartes Wort und bislang sieht es eher so aus, als würden uns alle Möglichkeiten der KI-Nutzung in den kommenden Jahren recht ungebremst und eher unreguliert erreichen. Ein guter Grund also, konkret zu beleuchten, welche Risiken mit den neuen Produkten möglicherweise verbunden sind.
Bewaffnung
Vielfach illustriert in diversen Science-Fiction-Klassikern, ist das womöglich die offensichtlichste Gefahr, die von künstlicher Intelligenz ausgehen könnte: Waffen, die mithilfe von Künstlicher Intelligenz so gefährlich werden, dass sie eine ernste Bedrohung für die Menschheit darstellen. Zum Teil ist die militärische Nutzung von KI bereits im Gange – so wurden beispielsweise Deep-Learning-Methoden bereits erfolgreich im Luftkampf getestet. Die Expertinnen und Experten am gemeinnützigen Center for AI Safety befürchten, dass mit KI-getriebenen Kriegstechnologien ein ähnliches Wettrüsten entstehen könnte wie wir es von Atomwaffen kennen. Dazu komme die Gefahr, dass beispielsweise ein Kampfflugzeug mit automatisiertem Piloten womöglich beim kleinsten Fehler verheerende Schäden anrichten könnte.
Fehlinformation
Eine zentrale Herausforderung für unsere Demokratien sind Fehlinformationen und Kampagnen im Netz. Die meisten Parteien oder politischen Organisationen nutzen Technologie, um andere von ihren Zielen zu überzeugen. Man denke nur an Social-Media-Kampagnen im Wahlkampf. Künstliche Intelligenzen können in diesem Feld ebenfalls zum Einsatz kommen und persönlich angepasste Desinformationskampagnen in großem Ausmaß möglich machen. So könnten auch Fake News gezielt an Menschen kommuniziert werden, was Individuen radikalisieren und Demokratien untergraben könnte. Passend dazu hat der Konzern Google aktuell angekündigt, noch massiver gegen Fake News im Netz vorgehen zu wollen – bietet aber parallel dazu auch selbst KI-getriebene Werbekampagnen an.
Abhängigkeit
Wenn wir wichtige Aufgaben immer weiter an Maschinen delegieren, verliert die Menschheit auch ein Stück weit ihre Fähigkeit zur Selbstverwaltung. Das besondere an KI-Systemen ist immerhin, dass sie mit der menschlichen Intelligenz zumindest ein Stück weit in Konkurrenz treten. Damit werden längerfristig immer mehr Aspekte der menschlichen Arbeit mit Künstlicher Intelligenz schneller und effizienter bearbeitet werden und Unternehmen könnten unter Wettbewerbsdruck sogar teilweise die Kontrolle an KI abgeben. So könnte es zu ganzen KI-gesteuerten Wirtschaftszweigen kommen, in die die Menschheit gar nicht mehr ohne Weiteres wiedereinsteigen könnte. Das zumindest befürchten die Expertinnen und Experten vom Center for AI Safety.
Im Hinterkopf sollte man dabei allerdings behalten, dass dieses Szenario überhaupt erst in einer ferneren Zukunft eintreten könnte. Wer aktuell in einem wirtschaftlichen Kontext menschliche Intelligenz mit Künstlicher Intelligenz vergleichen will, muss dabei auch sehen, dass Automatisierung eine hohe Rechenleistung und viel Energie erfordert. Gerade im Hinblick auf die Klimabilanz kann eine menschliche Arbeitskraft aktuell noch die bessere Wahl sein – und gerade wenn wir im Zuge des Klimawandels künftig noch mehr CO2 einsparen müssen, wird dieser Faktor eine große Rolle spielen.
Neu entstehende Ziele
Dieses Phänomen konnten Forschende bereits an KI-Sprachmodellen (dazu gehört beispielsweise Chat GPT) beobachten. Wenn sie in einem immer größeren Rahmen zum Einsatz kommen und so aufgrund ihrer Selbstlern-Fähigkeit immer kompetenter werden, entstehen dabei auch neue Funktionen und Fähigkeiten, die von den Systemdesignern nicht vorgesehen waren. Wenn wir nicht mehr so gut wissen, welche Fähigkeiten KI-Systeme besitzen, wird es auch schwieriger, sie zu kontrollieren und sicher einzusetzen – denn oft hat am Ende niemand einen kompletten Überblick, welche neuen Eigenschaften das System sich angeeignet hat.
Das Center for AI Safety schreibt, viele komplexe adaptive Systeme – und dazu gehören auch KIs – haben eine Tendenz zur Selbsterhaltung, also lassen sich dann nicht mehr so gut ausschalten. Das klingt ein wenig nach Stanley Kubricks A Space Odyssey – auch wenn die Realität davon natürlich sehr weit entfernt ist. Dass KI-Modelle auch kurzfristig nicht vorgegebene Ziele verfolgen können, wird aber künftig vermutlich zum Funktionsumfang gehören, weil die KI langfristige und komplexe Ziele am besten erreichen kann, indem sie sich (dann selbst definierte) Unterziele gibt. In extremen Fällen könnten solche selbst definierten Ziele auf Kosten des Gesamtzieles verfolgt werden, was die Kontrolle Künstlicher Intelligenzen erschwert.
Täuschung
Eine Möglichkeit, wie wir Menschen kontrollieren können, was Künstliche Intelligenzen so treiben, besteht darin, dass diese Informationen an uns weitergeben. Allerdings können wir uns nicht immer zwangsläufig darauf verlassen, dass die KI uns die Wahrheit sagt. Denn wenn wir nur definieren, dass ein Ziel möglichst effizient erreicht werden soll, kann der Weg zu diesem Ziel auch eine kleine Notlüge sein. Mitunter kann es für eine KI effizienter sein, menschliche Zustimmung zu einem ihrer Arbeitsschritte durch Täuschung zu erlangen als durch Ehrlichkeit. Systeme, die die Fähigkeit zum Täuschen haben, haben strategische Vorteile gegenüber eingeschränkten Modellen, können aber auch die menschliche Kontrolle untergraben.
Machthunger
Starke KI-Systeme sind ein machtvolles Instrument. Wladimir Putin wird beispielsweise mit den Worten zitiert, wer immer einen Durchbruch bei der Entwicklung künstlicher Intelligenz erziele, werde künftig die Welt dominieren. Der Anreiz, eine fähige und machtvolle KI zu entwickeln, ist also gegeben. Eine machtvolle KI wäre beispielsweise eine, die eine breite Palette an Zielen erreichen kann. Dabei muss aber nicht immer gegeben sein, dass die KI mit allen menschlichen Zielen übereinstimmt oder einfach zu kontrollieren ist. Nach Befürchtungen des Center for AI Safety könnten KI-Systeme im Zuge dessen selbst ein wenig machthungrig werden und sich über menschliche Kontrolle hinwegsetzen.
Wie damit umgehen?
Bei potenziellen Gefahren durch KI geht es meistens darum, inwiefern KI-Systeme sich unserer menschlichen Kontrolle entziehen könnten. Sollten wir angesichts dieser Gefahren auf Künstliche Intelligenz verzichten? Nein, finden die Experten vom Center for AI Safety. Aber wir sollten ein Gleichgewicht zwischen Sicherheit und allgemeinen Fähigkeiten von KI-Systemen finden. Weil man sich nicht darauf verlassen kann, dass alle Unternehmen auf der Welt ein solches Gleichgewicht anstreben, muss es womöglich stärkere politische Vorgaben auf diesem Gebiet geben.
Links/Studien
Zur Stellungnahme vom Center for AI Safety geht es hier.
iz
Not Found
The requested URL /api/v1/talk/includes/html/99a6ff7f-92be-4803-97dc-0f72de650c1d was not found on this server.