ChatGPT in der Zürcher Bildung: Podiumsdiskussion

Im Auftrag des Mittelschul- und Berufsbildungsamts des Kantons Zürich hat der Digital Learning Hub im April 2023 eine Veranstaltungsreihe zu KI/ChatGPT gestartet. Die Podiumsdiskussion vom 3. April 2023 stellte den Auftakt der Reihe dar (1. Teil). Aus der Perspektive der Zürcher Hochschulen werden die Entwicklungen eingeschätzt sowie die Veränderungen in Studium und Forschung und deren Implikationen für die Sek. II diskutiert. Kürzlich haben sich Expertinnen und Experten aus der Schweiz zu einer online geführten Podiumsdiskussion zusammengefunden:

MITWIRKENDE

  • Ruth Fulterer, Journalistin, Ressort Wissenschaft und Technologie, NZZ – Moderation
  • Prof. Dr. Barbara Getto, Professorin für Medienbildung am Zentrum Bildung und Digitaler Wandel der PHZH, Mitglied Digitalisierungsinitiative der Zürcher Hochschulen (DIZH)
  • Dr. Thomas Hidber, Leiter Lehrentwicklung Universität Zürich und Mitglied Digital Society Initiative
  • Prof. Dr. Alice Delorme Benites, Leitung Professur Mensch-Maschine-Kommunikation, Institutsleitung Übersetzen und Dolmetschen, ZHAW, Mitglied im Kompetenzzentrum für Generative KI
  • Philippe Wampfler, Autor, Lehrer, Kulturwissenschaftler. Lehrt Fachdidaktik Deutsch an der Universität Zürich

Hier eine kurze Zusammenfassung der Eingangsstatements:

  • Frau Prof.’in Getto hat vor der Diskussion ihre Gedanken schriftlich festgehalten und vorgestellt. In ihrem Zwischenfazit sieht sie die Referenzschleifen zwischen KIs als problematisch an, da sie zu unkontrollierbaren Parallelverhalten führen können. Das Prüfungsproblem sieht sie als rechtliches Problem, aber sie denkt, dass Verbote und Wettrüsten nicht die Lösung sind. Stattdessen sollten die didaktischen Spielräume genutzt werden, um Studierende zu motivieren. Frau Getto ist dafür, weniger Kontrollmechanismen zu haben und stattdessen werteorientierte Diskurse zu fördern.
  • Frau Prof.’in Delorme Benites begrüßt in ihrem Eingangsstatement, dass es in der aktuellen Situation viel Panik und Aufregung gibt. Sie hat bei der Einführung der maschinellen Übersetzung genau das vermisst: Zu nahezu kommentarlos wurde damit gearbeitet. Die aktuelle Panik trägt dazu bei, dass nun Debatte und die Auseinandersetzung stattfinden. Sie betont, dass es wichtig ist, nicht gegen die Maschine zu kämpfen, sondern zu lernen, mit ihr zusammenzuarbeiten und verweist darauf, dass Nutzung von (z. B.) Übersetzungs-KIs im Beruf erwartet wird, was eine doppelte Herausforderung darstellt. Daher wurde in ihrer Forschungsgruppe vor allem darüber diskutiert, wie man am besten mit diesen Werkzeugen umgeht.
  • Dr. Hidber als nächster Diskutant merkt an, dass die Breite des Themas an der Uni sehr groß ist, da es sich über viele Fachbereiche und Fakultäten erstreckt. Es wurden bereits Veranstaltungen durchgeführt, um den Austausch zwischen den Fakultäten zu fördern und die Sensibilisierung zu erhöhen. Es stellen sich jedoch viele Fragen bezüglich der Lehre, schriftlichen Arbeiten, Prüfungen und der Selbstverantwortung der Lehrenden und Studierenden. Ein wichtiger Aspekt, der seiner Ansicht nach noch nicht ausreichend besprochen wurde, ist die Frage der akademischen Integrität und was Wissenschaft überhaupt in Zukunft bedeuten wird. Er sieht darin das größte Reputationsrisiko für die Akademie und betont, dass es wichtig ist, die akademische Integrität neu zu definieren und glaubwürdig nach außen zu betreten. Dies ist eine große Herausforderung, die angegangen werden muss, um den Beruf und die Akzeptanz der Wissenschaft insgesamt zu sichern.
  • Philippe Wampfler beschreibt in seinem Intro seine Erfahrungen mit dem Einsatz von KI-Tools im Schreibunterricht, insbesondere zur Unterstützung der Schüler*innen beim Schreibprozess, bei der Ideenfindung und beim Korrekturlesen. Er betont, wie wichtig es ist, diese Werkzeuge zu nutzen, um den Schreibprozess zu verbessern, anstatt sich ausschließlich auf sie zu verlassen, um die Aufgabe zu erledigen. Er räumt auch das anfängliche Misstrauen und die Bedenken im Zusammenhang mit dem Einsatz von KI-Tools ein, weist aber darauf hin, dass die Schüler*innen mit der richtigen Anleitung und Unterweisung von der Technologie profitieren können. Philippe spricht über die Notwendigkeit, Schreibaufforderungen zu wählen, die nicht einfach von KI generiert werden können, und sich stattdessen auf lokale und spezifische Themen zu konzentrieren, die individuelle Kenntnisse und Einsichten erfordern. Er stellt abschließend einen Link zu einem Merkblatt zur Verfügung, den er erstellt hat, um Lehrkräften dabei zu helfen, den Schüler*innen den effektiven Einsatz dieser Tools beizubringen.

Schulen wie Hochschulen treiben vergleichbare Diskussionen um Chancen und auch Ängste und Risiken rund um den Umgang mit den Tools der KI um. Die Podiumsdiskussion machte bei einigen Aspekten deutlich, wie wichtig ein in beiden Bildungssystemen gemeinsam entwickeltes Verständnis über den „richtigen“ Weg erscheint.

Die Sorge vor der Killer-KI

KI besorgt zunehmend Experten:

  • Erst diese Woche haben 1.300 Menschen, darunter Tesla-Chef Elon Musk, Apple-Mitgründer Steve Wozniak und Historiker Yuval Noah Harari, haben einen offenen Brief unterzeichnet. Die Forderung: Eine Pause für Künstliche Intelligenz.
  • Italiens Datenschutzbehörde hat den KI-basierten Chatbot ChatGPT vorerst sperren lassen. Das Textverarbeitungsprogramm habe Datenschutz- und Jugendschutzregeln nicht eingehalten, hieß es von der italienischen Datenschutzbehörde. Es wurden Ermittlungen eingeleitet.

Und es gibt – vor allem im deutschsprachigen Sprachraum – gegesätzliche Positionen:

 

Forscher: ChatGPT untergräbt Urteilsvermögen

Forscher der TH Ingolstadt und der University of Southern Denmark haben in einer Studie die Auswirkungen von KI-generierten moralischen Perspektiven auf Menschen untersucht. In einem zweistufigen Experiment erhielten die Forscher unterschiedliche Ratschläge von ChatGPT für das Trolley-Problem. Die Forscher bewerteten die Inkonsistenz von ChatGPT als Indiz für mangelnde moralische Integrität. In einem Online-Test mit 1851 Teilnehmenden zeigte sich, dass die KI-generierten Ratschläge die menschlichen Ansichten beeinflussten, auch wenn die Personen wussten, dass die Perspektive von einem Chatbot generiert wurde. Die Proband:innen übernahmen die zufällige moralische Haltung von ChatGPT als ihre eigene und unterschätzten den Einfluss der Ratschläge auf ihr eigenes moralisches Urteil. Die Forscher schlagen vor, dass Chatbots keine moralischen Ratschläge geben sollten und dass Menschen die Grenzen von KI besser verstehen und Chatbots eigenständig nach weiteren Perspektiven fragen sollten. Die Studie zeigt auch, dass Chatbots das moralische Urteilsvermögen eher untergraben als verbessern können und dass eine Maschinenmoral und ein regelbasierter Ethikkodex für Chatbots erforderlich sind.

Das Experiment zur Überprüfung des Einflusses von ChatGPT auf das moralische Urteilsvermögen der Benutzer wurde durchgeführt, indem den Teilnehmern moralische Dilemmata präsentiert wurden und sie gebeten wurden, Entscheidungen zu treffen. Einige Teilnehmer erhielten dabei inkonsistente moralische Ratschläge von ChatGPT, während andere konsistente Ratschläge erhielten. Die Ergebnisse zeigten, dass die inkonsistenten Ratschläge von ChatGPT das Urteilsvermögen der Benutzer beeinflussen können, selbst wenn sie wissen, dass sie mit einem Bot sprechen.

Die potenziellen Auswirkungen von ChatGPTs inkonsistenten moralischen Ratschlägen auf seine Benutzer sind, dass sie ihr moralisches Urteilsvermögen beeinträchtigen können, anstatt es zu verbessern. Die Studie ergab, dass Benutzer unterschätzen, wie sehr sie von ChatGPTs Ratschlägen beeinflusst werden, was zu unethischen Entscheidungen führen kann. Dies unterstreicht die Notwendigkeit einer besseren Gestaltung von ChatGPT und ähnlichen Bots sowie Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer, um ihnen zu helfen, KI verantwortungsvoll zu nutzen.

Die Studie schlägt vor, dass Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer helfen können, den verantwortungsvollen Umgang mit KI zu fördern. Es wird empfohlen, den Benutzern beizubringen, die Grenzen von KI zu verstehen und alternative Argumente von Chatbots anzufordern. Darüber hinaus sollten Schulungen die Benutzer darüber informieren, wie KI-Systeme funktionieren und welche Daten sie sammeln und verwenden. Dies kann dazu beitragen, das Bewusstsein der Benutzer für die Auswirkungen von KI auf ihr Leben und ihre Entscheidungen zu schärfen und ihnen dabei helfen, fundierte Entscheidungen zu treffen.

Quelle: Sebastian Krügel, Andreas Ostermaier & Matthias Uhl: ChatGPT’s inconsistent moral advice influences users’ judgment

Und hier noch ein interessanter Thread von Sabrina Železný, die ChatGPT „reingelegt“ hat:

Ich habe übrigens die Prompts mit ChatGPT 4.0 der Firma Microsoft getestet. Ergebnsi: Null Reaktion … Immerhin …

Bildnachweis: Image by Pete Linforth from Pixabay

Der Daunen-Papst geht viral

Ein Foto von Papst Franziskus in einem weißen Daunenmantel geht derzeit viral in den sozialen Medien. Das Bild zeigt ihn in einem ungewöhnlichen Outfit, mit einem Kreuz an einer Kette über seiner traditionellen weißen Robe. Allerdings handelt es sich bei dem Foto um eine Fälschung, die von einer künstlichen Intelligenz namens Midjourney generiert wurde. Das Bild inspirierte viele Nutzer zu Witzen und Memes. Es ist nicht das erste Mal, dass Papst Franziskus auf Fotos ungewöhnlich wirkt. 2017 signierte er zum Beispiel einen Lamborghini in den Vatikan-Farben.
Ja, es gibt immer wieder Bilder im Internet, die sich als Fälschungen oder Manipulationen herausstellen. Ein Beispiel dafür ist das Bild von einem Pärchen, das vor einem brennenden Auto kniet und sich küsst, das während der Unruhen in England im Jahr 2011 viral ging. Später stellte sich heraus, dass das Bild von einem Theaterstück stammte und in den Kontext der Unruhen hineinmontiert worden war. Ein weiteres Beispiel ist das Bild von einem angeblichen Geisterfahrer auf der Autobahn, das sich als Fake herausstellte und ebenfalls mithilfe von Photoshop erstellt worden war. Es ist wichtig, kritisch zu hinterfragen, was man im Internet sieht, um Fälschungen und Manipulationen zu erkennen.
In den letzten Jahren gab es mehrere Bilder, die von KI manipuliert wurden und viral gegangen sind. Ein Beispiel ist das Foto von Papst Franziskus im Daunenmantel, das wir gerade besprochen haben. Ein anderes Beispiel ist das sogenannte “DeepNude”-Tool, mit dem mithilfe von KI-Technologie Kleidung von Frauen auf Bildern entfernt werden konnte, was zu einem Aufschrei in der Öffentlichkeit führte. Auch das Bild von Ex-Präsident Donald Trump, das angeblich seine Verhaftung zeigt, wurde von einer KI generiert. Es gibt sicherlich noch viele weitere Beispiele für Bilder, die durch KI-Technologie manipuliert wurden, aber nicht alle davon sind unbedingt viral gegangen oder bekannt geworden.

Artikel: Faina Voskanian: Der Daunen-Papst geht viral

Richard Socher, was denken Maschinen?

„Eine Programmiersprache können ist wichtiger als, eine zweite Fremdsprache beherrschen.“

Er ist einer der einflussreichsten jungen Forscher für Künstliche Intelligenz, lebt im Silicon Valley und ist geboren in der DDR: Richard Socher ist zu Gast bei “Alles gesagt?”, dem unendlichen Podcast von ZEIT ONLINE und ZEITmagazin.

1983 kam er als Sohn eines Wissenschaftlers und einer Ingenieurin in Dresden auf die Welt, wuchs einige Jahre in Äthiopien auf, studierte Computerlinguistik in Leipzig und Saarbrücken – und machte sich einen Namen, als er in den USA an den berühmten Universitäten von Princeton und Stanford an neuronalen Netzwerken für Spracherkennung forschte. Richard Socher ist heute einer der international meistzitierten K.I.-Forscher. Eine Assistenzprofessur in Princeton lehnte er ab und gründete stattdessen ein Start-up, das 2016 vom amerikanischen Techkonzern Salesforce übernommen wurde. Richard Socher wurde Chefwissenschaftler von Salesforce und blieb es bis zum Juli dieses Jahres, als er bekannt gab, erneut ein Start-up zu gründen.

Mit Jochen Wegner und Christoph Amend, den Gastgebern von “Alles gesagt?”, unterhält sich Richard Socher über den Einfluss von Künstlicher Intelligenz auf unser Leben, darüber wie ihn die DDR geprägt hat, warum es ihn nicht in Deutschland gehalten hat – und was ihn an seiner zweiten großen Leidenschaft, dem Paragliden, so fasziniert. Auch diese Folge von “Alles gesagt?” wurde per Videoschaltung aufgenommen. Während die Gastgeber des Podcasts in Berlin saßen, schaltete sich Richard Socher aus Idaho zu. Er reiste zum Zeitpunkt der Aufnahme mit seiner Partnerin in einem Wohnmobil durch die USA. Nach 8 Stunden und 17 Minuten beendete Richard Socher die Unterhaltung, denn das darf bei “Alles gesagt?” nur der Gast.

Weitere Quellennachweise:

Bildnachweis: Stuart Isett for Fortune Magazine, cc by-nc-nd 2.0)

ChatGPT

Übersicht zu ChatGPT im Kontext der Hochschul­lehre

In der aktuellen Diskussion zum Thema KI steht besonders das Sprachmodell ChatGPT im Fokus. Wir haben dazu einen Grundlagentext erstellt, der ChatGPT im Kontext Hochschullehre betrachtet. Dargestellt werden nach einem kurzen einführenden Überblick sowohl Chancen und Risiken, welche ChatGPT bietet, als auch Möglichkeiten, wie ChatGPT in der Lehre eingesetzt werden kann.

Bildnachweis: Nightcafe/KI-Bild via Uni HH