Wissen-News Chatbots wie ChatGPT sagen, was wir hören wollen
Hauptinhalt
15. Mai 2024, 11:13 Uhr
Chatbots wie ChatGPT geben keine neutralen Informationen weiter und orientieren sich an der Meinung der Nutzenden, so eine neue Studie. Das trage zur Polarisierung bei.
ChatGPT als Durchlauferhitzer für Polarisierung: KI-basierte Chatbots sind voreingenommen und können Ideologien verstärken. Das legen Forschende der US-amerikanischen Johns Hopkins-Universität nahe. Das Forschungsteam stellt damit die Annahme infrage, Chatbots seien unparteiisch.
In ihrer Untersuchung mit 272 Teilnehmenden konnten die Forschenden einen sogenannten Echokammer-Effekt nachweisen. Durch die im Gegensatz zu herkömmlichen Suchmaschinen engere Auswahl an Informationen, die Chatbots bieten, würden diese bereits vorhandene Einstellungen der User widerspiegeln. Das hänge damit zusammen, dass Menschen in Chatbots zu einer natürlichen Sprache tendierten, die Chatbots wiederum in ihrer Antwort aufgriffen. So würden etwa bei der Frage nach den Vorteilen von Studiendarlehen nur die Vorteile aufgeführt, statt auch über die Nachteile aufzuklären.
Dem Problem sei allerdings auch nicht mit KI zu begegnen, die darauf programmiert ist, grundsätzlich die entgegengesetzte Meinung zu vertreten. Auch die Bereitstellung von Quelleninformationen durch Chatbots werde wenig genutzt. Das Forschungsteam warnt, dass die Sprache von Nutzenden gegen sie selbst verwendet werden könne, was Missbrauchspotenzial böte.
flo
Dieses Thema im Programm: MDR AKTUELL | 13. Mai 2024 | 09:41 Uhr
Not Found
The requested URL /api/v1/talk/includes/html/d43baaeb-c1a2-453e-a5ec-3ba43eda902f was not found on this server.