Forscher der TH Ingolstadt und der University of Southern Denmark haben in einer Studie die Auswirkungen von KI-generierten moralischen Perspektiven auf Menschen untersucht. In einem zweistufigen Experiment erhielten die Forscher unterschiedliche Ratschläge von ChatGPT für das Trolley-Problem. Die Forscher bewerteten die Inkonsistenz von ChatGPT als Indiz für mangelnde moralische Integrität. In einem Online-Test mit 1851 Teilnehmenden zeigte sich, dass die KI-generierten Ratschläge die menschlichen Ansichten beeinflussten, auch wenn die Personen wussten, dass die Perspektive von einem Chatbot generiert wurde. Die Proband:innen übernahmen die zufällige moralische Haltung von ChatGPT als ihre eigene und unterschätzten den Einfluss der Ratschläge auf ihr eigenes moralisches Urteil. Die Forscher schlagen vor, dass Chatbots keine moralischen Ratschläge geben sollten und dass Menschen die Grenzen von KI besser verstehen und Chatbots eigenständig nach weiteren Perspektiven fragen sollten. Die Studie zeigt auch, dass Chatbots das moralische Urteilsvermögen eher untergraben als verbessern können und dass eine Maschinenmoral und ein regelbasierter Ethikkodex für Chatbots erforderlich sind.

Das Experiment zur Überprüfung des Einflusses von ChatGPT auf das moralische Urteilsvermögen der Benutzer wurde durchgeführt, indem den Teilnehmern moralische Dilemmata präsentiert wurden und sie gebeten wurden, Entscheidungen zu treffen. Einige Teilnehmer erhielten dabei inkonsistente moralische Ratschläge von ChatGPT, während andere konsistente Ratschläge erhielten. Die Ergebnisse zeigten, dass die inkonsistenten Ratschläge von ChatGPT das Urteilsvermögen der Benutzer beeinflussen können, selbst wenn sie wissen, dass sie mit einem Bot sprechen.

Die potenziellen Auswirkungen von ChatGPTs inkonsistenten moralischen Ratschlägen auf seine Benutzer sind, dass sie ihr moralisches Urteilsvermögen beeinträchtigen können, anstatt es zu verbessern. Die Studie ergab, dass Benutzer unterschätzen, wie sehr sie von ChatGPTs Ratschlägen beeinflusst werden, was zu unethischen Entscheidungen führen kann. Dies unterstreicht die Notwendigkeit einer besseren Gestaltung von ChatGPT und ähnlichen Bots sowie Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer, um ihnen zu helfen, KI verantwortungsvoll zu nutzen.

Die Studie schlägt vor, dass Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer helfen können, den verantwortungsvollen Umgang mit KI zu fördern. Es wird empfohlen, den Benutzern beizubringen, die Grenzen von KI zu verstehen und alternative Argumente von Chatbots anzufordern. Darüber hinaus sollten Schulungen die Benutzer darüber informieren, wie KI-Systeme funktionieren und welche Daten sie sammeln und verwenden. Dies kann dazu beitragen, das Bewusstsein der Benutzer für die Auswirkungen von KI auf ihr Leben und ihre Entscheidungen zu schärfen und ihnen dabei helfen, fundierte Entscheidungen zu treffen.

Quelle: Sebastian Krügel, Andreas Ostermaier & Matthias Uhl: ChatGPT’s inconsistent moral advice influences users’ judgment

Und hier noch ein interessanter Thread von Sabrina Železný, die ChatGPT „reingelegt“ hat:

Ich habe übrigens die Prompts mit ChatGPT 4.0 der Firma Microsoft getestet. Ergebnsi: Null Reaktion … Immerhin …

Bildnachweis: Image by Pete Linforth from Pixabay