Wie kreativ ist KI wirklich?

Eine Studie von Jennifer Haase (Humboldt-Universität zu Berlin) und Paul Hanel (University of Essex) hat die Kreativität von Menschen und künstlicher Intelligenz (KI) miteinander verglichen und kaum Unterschiede gefunden. Dabei mussten 100 Menschen und sechs generative KI-Programme den “Alternative Uses Test” absolvieren, bei dem für Alltagsgegenstände andere Verwendungsmöglichkeiten abgefragt wurden. Die Ergebnisse waren in Summe ähnlich. Doch während KI-Programme auf dem Gebiet der Alltagskreativität gute Ergebnisse erzielten, betonen die/der Studienautoren/-autorin, dass sie nicht pauschal als genauso kreativ wie Menschen betrachtet werden sollten. Expert*innen sagen, dass es einen wichtigen Unterschied zwischen der Fähigkeit von Menschen und KI gibt, große Werke zu schaffen und dass KI immer einen äußeren Anstoß benötigt, um kreativ zu werden.

Zum Artikel: Wie kreativ ist KI wirklich?

Zur Studie: Artificial muses: Generative Artificial Intelligence Chatbots Have Risen to Human-Level Creativity

Bildnachweis: pedrogoncalvesjardim from Pixabay

ChatGPT in der Zürcher Bildung: Podiumsdiskussion

Im Auftrag des Mittelschul- und Berufsbildungsamts des Kantons Zürich hat der Digital Learning Hub im April 2023 eine Veranstaltungsreihe zu KI/ChatGPT gestartet. Die Podiumsdiskussion vom 3. April 2023 stellte den Auftakt der Reihe dar (1. Teil). Aus der Perspektive der Zürcher Hochschulen werden die Entwicklungen eingeschätzt sowie die Veränderungen in Studium und Forschung und deren Implikationen für die Sek. II diskutiert. Kürzlich haben sich Expertinnen und Experten aus der Schweiz zu einer online geführten Podiumsdiskussion zusammengefunden:

MITWIRKENDE

  • Ruth Fulterer, Journalistin, Ressort Wissenschaft und Technologie, NZZ – Moderation
  • Prof. Dr. Barbara Getto, Professorin für Medienbildung am Zentrum Bildung und Digitaler Wandel der PHZH, Mitglied Digitalisierungsinitiative der Zürcher Hochschulen (DIZH)
  • Dr. Thomas Hidber, Leiter Lehrentwicklung Universität Zürich und Mitglied Digital Society Initiative
  • Prof. Dr. Alice Delorme Benites, Leitung Professur Mensch-Maschine-Kommunikation, Institutsleitung Übersetzen und Dolmetschen, ZHAW, Mitglied im Kompetenzzentrum für Generative KI
  • Philippe Wampfler, Autor, Lehrer, Kulturwissenschaftler. Lehrt Fachdidaktik Deutsch an der Universität Zürich

Hier eine kurze Zusammenfassung der Eingangsstatements:

  • Frau Prof.’in Getto hat vor der Diskussion ihre Gedanken schriftlich festgehalten und vorgestellt. In ihrem Zwischenfazit sieht sie die Referenzschleifen zwischen KIs als problematisch an, da sie zu unkontrollierbaren Parallelverhalten führen können. Das Prüfungsproblem sieht sie als rechtliches Problem, aber sie denkt, dass Verbote und Wettrüsten nicht die Lösung sind. Stattdessen sollten die didaktischen Spielräume genutzt werden, um Studierende zu motivieren. Frau Getto ist dafür, weniger Kontrollmechanismen zu haben und stattdessen werteorientierte Diskurse zu fördern.
  • Frau Prof.’in Delorme Benites begrüßt in ihrem Eingangsstatement, dass es in der aktuellen Situation viel Panik und Aufregung gibt. Sie hat bei der Einführung der maschinellen Übersetzung genau das vermisst: Zu nahezu kommentarlos wurde damit gearbeitet. Die aktuelle Panik trägt dazu bei, dass nun Debatte und die Auseinandersetzung stattfinden. Sie betont, dass es wichtig ist, nicht gegen die Maschine zu kämpfen, sondern zu lernen, mit ihr zusammenzuarbeiten und verweist darauf, dass Nutzung von (z. B.) Übersetzungs-KIs im Beruf erwartet wird, was eine doppelte Herausforderung darstellt. Daher wurde in ihrer Forschungsgruppe vor allem darüber diskutiert, wie man am besten mit diesen Werkzeugen umgeht.
  • Dr. Hidber als nächster Diskutant merkt an, dass die Breite des Themas an der Uni sehr groß ist, da es sich über viele Fachbereiche und Fakultäten erstreckt. Es wurden bereits Veranstaltungen durchgeführt, um den Austausch zwischen den Fakultäten zu fördern und die Sensibilisierung zu erhöhen. Es stellen sich jedoch viele Fragen bezüglich der Lehre, schriftlichen Arbeiten, Prüfungen und der Selbstverantwortung der Lehrenden und Studierenden. Ein wichtiger Aspekt, der seiner Ansicht nach noch nicht ausreichend besprochen wurde, ist die Frage der akademischen Integrität und was Wissenschaft überhaupt in Zukunft bedeuten wird. Er sieht darin das größte Reputationsrisiko für die Akademie und betont, dass es wichtig ist, die akademische Integrität neu zu definieren und glaubwürdig nach außen zu betreten. Dies ist eine große Herausforderung, die angegangen werden muss, um den Beruf und die Akzeptanz der Wissenschaft insgesamt zu sichern.
  • Philippe Wampfler beschreibt in seinem Intro seine Erfahrungen mit dem Einsatz von KI-Tools im Schreibunterricht, insbesondere zur Unterstützung der Schüler*innen beim Schreibprozess, bei der Ideenfindung und beim Korrekturlesen. Er betont, wie wichtig es ist, diese Werkzeuge zu nutzen, um den Schreibprozess zu verbessern, anstatt sich ausschließlich auf sie zu verlassen, um die Aufgabe zu erledigen. Er räumt auch das anfängliche Misstrauen und die Bedenken im Zusammenhang mit dem Einsatz von KI-Tools ein, weist aber darauf hin, dass die Schüler*innen mit der richtigen Anleitung und Unterweisung von der Technologie profitieren können. Philippe spricht über die Notwendigkeit, Schreibaufforderungen zu wählen, die nicht einfach von KI generiert werden können, und sich stattdessen auf lokale und spezifische Themen zu konzentrieren, die individuelle Kenntnisse und Einsichten erfordern. Er stellt abschließend einen Link zu einem Merkblatt zur Verfügung, den er erstellt hat, um Lehrkräften dabei zu helfen, den Schüler*innen den effektiven Einsatz dieser Tools beizubringen.

Schulen wie Hochschulen treiben vergleichbare Diskussionen um Chancen und auch Ängste und Risiken rund um den Umgang mit den Tools der KI um. Die Podiumsdiskussion machte bei einigen Aspekten deutlich, wie wichtig ein in beiden Bildungssystemen gemeinsam entwickeltes Verständnis über den „richtigen“ Weg erscheint.

Petitionsaufruf: Einsatz regulieren

Während die Diskussion rund um KI im deutschen Bildungssystem bisher eher eine Randerscheinung war, hat sich dies seit der kürzlichen Veröffentlichung von ChatGPT und vergleichbaren generativen Transformern zu einem sehr intensiven Diskurs gewandelt mit einer hohen Eigendynamik. Einige Hochschulen haben bereits begonnen, KI-Dienste in ihr Serviceportfolio aufzunehmen und für Studierende anzubieten. Zugleich gibt es bereits erste Handreichungen zum Umgang mit ChatGPT für Studierende und Lehrende sowie Rechtsgutachten zur Nutzung dieser Dienste und Stellungnahmen und Einschätzungen aus der Wissenschaft, die auch erste ethische Dimensionen skizzieren.

Die Unterzeichnenden begrüßen die Nutzung von digitalen Technologien zur Verbesserung von Bildungschancen und zum Umgang mit heterogenen Gruppen von Lernenden. Zur gleichen Zeit zeigen die Unterzeichnenden sich überrascht über die Geschwindigkeit, mit der KI-Dienste Einzug halten in die Landschaft der Hochschulen ohne vorherige Prüfung der ethischen Rahmenbedingungen und der potenziellen Effekte des Einsatzes. Die Datenlage zu Effekten des Einsatzes KI-basierter Systeme im Bildungsbereich ist spärlich und es herrscht ein Paradigma der algorithmischen Optimierung auf Basis vorhandener Daten vor anstatt der kontrollierten Implementation mit evidenzbasierter Überprüfung auch nicht gewünschter Seiteneffekte.

Aufruf

Aus diesem Grund wird zur Unterzeichnung einer Petition mit folgenden Forderungen aufgerufen:

  • Die vorherige ethische Prüfung von KI-basierten Systemen, die im deutschen Bildungssystem zum Einsatz kommen sollen
  • Die transparente und nachvollziehbare Information von Studierenden und Lehrenden bei der Nutzung dieser Systeme über Datenströme und Umgang mit den Daten sowie die Möglichkeit des Opt-Out
  • Die deutliche Kennzeichnung von Verantwortlichkeiten bei der Implementation von KI-basierten Systemen
  • Die Verminderung eines durch die Datenbasis gegebenen Verzerrungseffektes (Bias)
  • Die präferierte Nutzung von offenen Sprachmodellen, die nicht in der Hand von Firmen mit kommerziellen Interessen liegen, sondern einem Open-Source-Gedanken folgen und transparent und nachvollziehbar sind
  • Die Aufklärung der Nutzenden, dass diese über die Nutzung an der Optimierung des Sprachmodells mitwirken
  • Die Sicherstellung des Vorrangs menschlichen Handelns und der menschlichen Aufsicht vor automatisierten Entscheidungsketten
  • Die staatliche Förderung von Bildungsprogrammen zur Aufklärung über die Funktionsweisen von KI und Algorithmen
  • Die Pilotierung von KI-basierten Systemen im Bildungsbereich vor der Implementation derartiger Dienste und Formate
  • Die Auflegung eines Förderprogramms zu ethischen Dimensionen des Einsatzes KI-basierter Systeme im Bildungsbereich

Forscher: ChatGPT untergräbt Urteilsvermögen

Forscher der TH Ingolstadt und der University of Southern Denmark haben in einer Studie die Auswirkungen von KI-generierten moralischen Perspektiven auf Menschen untersucht. In einem zweistufigen Experiment erhielten die Forscher unterschiedliche Ratschläge von ChatGPT für das Trolley-Problem. Die Forscher bewerteten die Inkonsistenz von ChatGPT als Indiz für mangelnde moralische Integrität. In einem Online-Test mit 1851 Teilnehmenden zeigte sich, dass die KI-generierten Ratschläge die menschlichen Ansichten beeinflussten, auch wenn die Personen wussten, dass die Perspektive von einem Chatbot generiert wurde. Die Proband:innen übernahmen die zufällige moralische Haltung von ChatGPT als ihre eigene und unterschätzten den Einfluss der Ratschläge auf ihr eigenes moralisches Urteil. Die Forscher schlagen vor, dass Chatbots keine moralischen Ratschläge geben sollten und dass Menschen die Grenzen von KI besser verstehen und Chatbots eigenständig nach weiteren Perspektiven fragen sollten. Die Studie zeigt auch, dass Chatbots das moralische Urteilsvermögen eher untergraben als verbessern können und dass eine Maschinenmoral und ein regelbasierter Ethikkodex für Chatbots erforderlich sind.

Das Experiment zur Überprüfung des Einflusses von ChatGPT auf das moralische Urteilsvermögen der Benutzer wurde durchgeführt, indem den Teilnehmern moralische Dilemmata präsentiert wurden und sie gebeten wurden, Entscheidungen zu treffen. Einige Teilnehmer erhielten dabei inkonsistente moralische Ratschläge von ChatGPT, während andere konsistente Ratschläge erhielten. Die Ergebnisse zeigten, dass die inkonsistenten Ratschläge von ChatGPT das Urteilsvermögen der Benutzer beeinflussen können, selbst wenn sie wissen, dass sie mit einem Bot sprechen.

Die potenziellen Auswirkungen von ChatGPTs inkonsistenten moralischen Ratschlägen auf seine Benutzer sind, dass sie ihr moralisches Urteilsvermögen beeinträchtigen können, anstatt es zu verbessern. Die Studie ergab, dass Benutzer unterschätzen, wie sehr sie von ChatGPTs Ratschlägen beeinflusst werden, was zu unethischen Entscheidungen führen kann. Dies unterstreicht die Notwendigkeit einer besseren Gestaltung von ChatGPT und ähnlichen Bots sowie Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer, um ihnen zu helfen, KI verantwortungsvoll zu nutzen.

Die Studie schlägt vor, dass Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer helfen können, den verantwortungsvollen Umgang mit KI zu fördern. Es wird empfohlen, den Benutzern beizubringen, die Grenzen von KI zu verstehen und alternative Argumente von Chatbots anzufordern. Darüber hinaus sollten Schulungen die Benutzer darüber informieren, wie KI-Systeme funktionieren und welche Daten sie sammeln und verwenden. Dies kann dazu beitragen, das Bewusstsein der Benutzer für die Auswirkungen von KI auf ihr Leben und ihre Entscheidungen zu schärfen und ihnen dabei helfen, fundierte Entscheidungen zu treffen.

Quelle: Sebastian Krügel, Andreas Ostermaier & Matthias Uhl: ChatGPT’s inconsistent moral advice influences users’ judgment

Und hier noch ein interessanter Thread von Sabrina Železný, die ChatGPT „reingelegt“ hat:

Ich habe übrigens die Prompts mit ChatGPT 4.0 der Firma Microsoft getestet. Ergebnsi: Null Reaktion … Immerhin …

Bildnachweis: Image by Pete Linforth from Pixabay

“ChatGPT ist erst die Spitze des Eisbergs”

„Machst du das Interview zu ChatGPT dann bitte heute noch fertig?“. Na klar, brauche nur noch schnell eine gute Einleitung. „Schreibe mir eine kurze Einleitung zu einem Interview mit zwei Professorinnen der Erziehungswissenschaft, die zu ChatGPT und dessen Bedeutung für die heutige Bildung befragt wurden.“, schreibe ich in das Chatfenster der KI-Software. Innerhalb von 30 Sekunden habe ich einen akzeptablen Vorschlag für den Einstieg in das folgende Interview:

„In diesem Interview sprechen wir mit zwei Professorinnen der Erziehungswissenschaft über ChatGPT und seine Bedeutung für die heutige Bildung. ChatGPT ist ein leistungsfähiges Sprachmodell, das auf maschinellem Lernen basiert und in der Lage ist, menschenähnliche Antworten auf komplexe Fragen zu generieren. Die Integration von ChatGPT in die Bildung könnte das Lernen und die Informationsbeschaffung revolutionieren. In diesem Gespräch werden wir erfahren, wie ChatGPT das Lernen und die Lehre in der heutigen Zeit verändern kann, welche Vor- und Nachteile es bietet und welche Auswirkungen es auf die Bildungslandschaft haben könnte.“

Zum Interview

Bildnachweis: Dieses Bild wurde mit Stable Diffusion, einer weiteren KI zur Bildgenerierung entwickelt. Prompts: “education and artificial intelligence”

ChatGPT

Übersicht zu ChatGPT im Kontext der Hochschul­lehre

In der aktuellen Diskussion zum Thema KI steht besonders das Sprachmodell ChatGPT im Fokus. Wir haben dazu einen Grundlagentext erstellt, der ChatGPT im Kontext Hochschullehre betrachtet. Dargestellt werden nach einem kurzen einführenden Überblick sowohl Chancen und Risiken, welche ChatGPT bietet, als auch Möglichkeiten, wie ChatGPT in der Lehre eingesetzt werden kann.

Bildnachweis: Nightcafe/KI-Bild via Uni HH