
KI-Sprachmodell Auch Fragen ohne Antworten bei Deepseek
Hauptinhalt
19. Februar 2025, 09:46 Uhr
KI-Sprachmodelle sind inzwischen für viele zu wandelnden Lexika geworden: kurz gefragt, schnelle Antwort. Deepseek aber hat schon Fragen gestellt bekommen, auf die es dann keine Antwort gab.
Ein KI-Sprachmodell aus China
Der Einsatz von KI gehört immer mehr zum Alltag, etwa auch als Ersatz für klassische Suchmaschinen im Internet. "Deepseek" heißt wörtlich übersetzt ins Deutsche "Tiefe Suche". Da sollte man meinen, dass das so benannte KI-Sprachmodell eines kleinen Start-Ups aus China keine Antworten auf Fragen offen lässt, schließlich soll es Chatbots wie ChatGPT oder Copilot Konkurrenz machen. Das gelingt auch. Doch bei Fragen zum chinesischen System kann es sein, dass die KI-App sprachkarg wird.
Hier gibt es keine klaren Antworten
"Bei Fragen zu kritischen Themen wie den Ereignissen auf dem Tiananmen-Platz 1989 verweigert das System die Antwort", schreibt Digitalexperte Jörg Schieb in einem WDR-Artikel.
Wenig erfolgreich war auch die Frage danach, ob Taiwan ein souveräner Staat ist, wie Jinhan Li von der "Deutschen Welle" getestet hat. Auch zum chinesischen Präsidenten Xi Jinping sei Deepseek nicht in Plauderlaune gewesen. Deutlich sei der Kommentar dazu gewesen: ""Lassen Sie uns über etwas anderes reden."
"Einschränkungen beziehungsweise die Zensur bei DeepSeek sind ziemlich offensichtlich", so Merlin Münch vom Zentrum für vertrauenswürdige Künstliche Intelligenz, das vom Bundesministerium für Verbraucherschutz gefördert wird, zu tagesschau.de.
Einschränkungen beziehungsweise die Zensur bei DeepSeek sind ziemlich offensichtlich.
KI-Systeme generell kritisch hinterfragen
Dass Künstliche Intelligenz immer mit kritischem Blick verwendet werden soll, ist nicht neu. Nur bei Deepseek ist das besonders offensichtlich bei den getesten Beispielen. "Die Entwicklung von Deepseek, einem KI-Modell aus China, zeigt, wie generative KI in autoritären Systemen reguliert und geformt wird", schreibt Michael Schwertel, Professor für Medienmanagement an der CBS International Business School in Köln, auf Linkedin.
Künstliche Intelligenz gebe nicht nur neutrale Informationen wieder, sondern sei ideologisch und kulturell gefärbt. "Umso wichtiger ist eine starke Medienkompetenz, um zu verstehen, wie KI Antworten generiert und welche Mechanismen dahinterstehen", so Schwertel. Das gilt für alle KI-Anwendungen.
MDR (cbr)
Dieses Thema im Programm: Eine Minute Geld auf TikTok | 10. Februar 2025 | 18:00 Uhr