Deutscher Bundestag veröffentlicht Studie zu ChatGPT

Selten hat ein Computersystem weltweit so viel Aufmerksamkeit und Debatten erregt wie ChatGPT seit seiner Einführung im November 2022. Der Chatbot beruht auf einem Computermodell, das mithilfe von Methoden der künstlichen Intelligenz (KI) auf die Verarbeitung sprachlicher Daten trainiert wurde. Er kann in kürzester Zeit eloquent erscheinende Antworten zu den unterschiedlichsten Themen generieren, ganze Essays oder Computerprogramme erstellen und Sprachstile wie Gedichte, Witze oder Erörterungen imitieren – und das in verschiedenen Sprachen.

Am Freitag, den 21.04.2023, hat der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages die im Februar 2023 in Auftrag gegebene Studie veröffentlicht. Darin werden die technologische Entwicklung von Computermodellen zur Sprachverarbeitung sowie ihre Möglichkeiten und Grenzen dargestellt. Zur Abschätzung der Chancen und Risiken, die sich aus der Anwendung von ChatGPT und vergleichbaren Systemen ergeben, werden konkrete Anwendungsszenarien in den Bereichen Wirtschaft, Gesundheit, öffentliche Kommunikation und Recht untersucht.

Potenziale der Systeme bestehen in der teilweisen Automatisierung der Produktion von Texten, der Softwareprogrammierung sowie der Übersetzung und Vereinfachung von Texten. Damit sind Entlastungs- und vor allem aber Rationalisierungseffekte erstmals auch in Branchen möglich, die bislang kaum von der Automatisierung durch Informations- und Kommunikationstechnologien betroffen waren. Es lassen sich auch gesellschaftliche Risiken identifizieren, etwa der Verlust der Vertrauenswürdigkeit von Informationen oder die Möglichkeit einer missbräuchlichen Nutzung, zudem können bestehende Ungleichheiten verstärkt und Diskriminierung Vorschub geleistet werden. Ziel der Studie ist es, für Politik und öffentliche Debatte relevante Fragestellungen abzuleiten, an denen sich eine an gesellschaftlichen Werten und Zielen ausgerichtete Entwicklung und Nutzung von ChatGPT und verwandten Systemen orientieren kann.

Um im Thema zu bleiben und ein weiteres Tool zu testen, habe ich die weitere Analyse mit dem KI-Tool ChatPDF durchgeführt. Dazu lädt man das PDF hoch und der Bot schlägt einem drei Fragen vor. Oder man stellt eigene. Hier das Ergebnis.

Analyse mit ChatPDF

Fragen

Das Hintergrundpapier wirft verschieden Fragen auf, die im Zusammenhang mit ChatGPT und anderen Computermodellen zur Sprachverarbeitung diskutiert werden. Einige dieser Fragen sind:

  • Wie können wir sicherstellen, dass diese Modelle nicht diskriminierend sind?
  • Wie können wir verhindern, dass diese Modelle missbraucht werden, um Falschinformationen zu verbreiten oder Menschen zu manipulieren?
  • Wie können wir sicherstellen, dass die Verwendung dieser Modelle transparent und nachvollziehbar ist?
  • Welche Auswirkungen haben diese Modelle auf die Arbeitswelt und wie können wir sicherstellen, dass sie nicht zu Arbeitsplatzverlusten führen?
  • Wie können wir sicherstellen, dass diese Modelle ethisch verantwortungsvoll eingesetzt werden?

 

Gibt es auch Antworten?

: Das Hintergrundpapier gibt keine direkten Antworten auf diese Fragen, sondern zielt darauf ab, Fragestellungen abzuleiten, unter denen die Rolle von KI-Modellen zur Sprachverarbeitung weiter beobachtet und untersucht werden kann. Es werden jedoch verschiedene Aspekte diskutiert, die bei der Beantwortung dieser Fragen berücksichtigt werden sollten. Zum Beispiel wird darauf hingewiesen, dass es wichtig ist, die Verwendung dieser Modelle transparent und nachvollziehbar zu gestalten und sicherzustellen, dass sie ethisch verantwortungsvoll eingesetzt werden. Es wird auch betont, dass weitere Forschung notwendig ist, um die Auswirkungen dieser Modelle auf die Gesellschaft besser zu verstehen und um mögliche negative Folgen zu vermeiden.

Welche Anwendungsbereiche werden in dem Papier positiv hervorgehoben?

/md: Ein Bereich, der positiv hervorgehoben wird, ist die Bildung. Es wird darauf hingewiesen, dass diese Modelle dazu beitragen können, den Lernprozess zu verbessern, indem sie personalisierte Lerninhalte bereitstellen und Feedback geben. Darüber hinaus können sie auch bei der Erstellung von Lehrmaterialien und bei der Entwicklung von Sprachlern-Apps eingesetzt werden. Weitere Anwendungsbereiche, die diskutiert werden, sind unter anderem die Medizin, die Automobilindustrie und die Finanzbranche.

Gibt es Bereiche, die kritisch gestellt sind?

/md: Ja, ein Bereich, der kritisch betrachtet wird, ist die mögliche Verbreitung von Falschinformationen und die Manipulation von Menschen durch den Einsatz dieser Modelle. Es wird darauf hingewiesen, dass diese Modelle dazu verwendet werden können, gefälschte Texte und Nachrichten zu erstellen, die schwer von echten Texten zu unterscheiden sind. Ein weiterer kritischer Aspekt ist die mögliche Diskriminierung von bestimmten Gruppen durch diese Modelle. Wenn die Trainingsdaten nicht ausgewogen sind oder bestimmte Gruppen unterrepräsentiert sind, können diese Modelle dazu neigen, Vorurteile und Diskriminierung zu reproduzieren.

Welche möglichen Auswirkungen haben diese Modelle auf die Gesellschaft und wie können negative Folgen vermieden werden?

: Das Hintergrundpapier diskutiert verschiedene mögliche Auswirkungen von ChatGPT und anderen Computermodellen zur Sprachverarbeitung auf die Gesellschaft. Einige dieser Auswirkungen sind positiv, wie zum Beispiel die Verbesserung des Lernprozesses oder die Unterstützung von medizinischen Diagnosen. Es gibt jedoch auch mögliche negative Auswirkungen, wie zum Beispiel die Verbreitung von Falschinformationen oder die Diskriminierung bestimmter Gruppen. Um negative Folgen zu vermeiden, schlägt das Hintergrundpapier verschiedene Maßnahmen vor. Zum Beispiel wird betont, dass es wichtig ist, die Verwendung dieser Modelle transparent und nachvollziehbar zu gestalten und sicherzustellen, dass sie ethisch verantwortungsvoll eingesetzt werden. Es wird auch empfohlen, dass diese Modelle regelmäßig überprüft werden sollten, um sicherzustellen, dass sie nicht diskriminierend sind oder Falschinformationen verbreiten. Darüber hinaus wird betont, dass weitere Forschung notwendig ist, um die Auswirkungen dieser Modelle auf die Gesellschaft besser zu verstehen und um mögliche negative Folgen zu vermeiden. Es wird empfohlen, dass Regulierungsbehörden und andere Interessengruppen zusammenarbeiten sollten, um sicherzustellen, dass diese Modelle verantwortungsvoll eingesetzt werden und um mögliche Risiken zu minimieren.

Schlussbemerkung

Die Studie bietet die Grundlage für eine Debatte zu ChatGPT im Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages. Zu der öffentlichen Sitzung am Mittwoch, den 26. April hat der Ausschuss eine Reihe von Expertinnen und Experten eingeladen. Erik Grundmann, ein Lehrer aus Frankfurt, hat die Sitzung mit seinen Schülerinnen und Schülern beobachtet und so in einem Thread kommentiert:

 

… Stay tuned …

Quelle: Studie zu ChatGPT für den Deutschen Bundestag

Hintergrundbericht des Büros Technikfolgenabschätzung (gewissermaßen ChatGPT analog 😉)

Ausschussitzung: Aufzeichnung in der Mediathek des Parlamentsfernsehen

Bildnachweis: Bildausschnitt aus Cover

D, PoWi: ChatGPT für Bewerbungsschreiben nutzen

Ich habe Anfang des Monats eine App vorgestellt, die Bewerbungsschreiben erstellt. Der Entwickler Konstantin Lobanov bindet wohl über eine API Sprach- und Textmodelle von OpenAI ein. Wer in der Schule Zugang zu ChatGPT hat, kann das Thema auch im Unterricht behandeln, zumal es im Rahmen der Berufsorientierung curricular verankert ist.

Pascal Mühle (DIE WELT) befragte Experten, inwieweit ChatGPT die Aufgabe übertragen werden kann. Laut Steffen Fischer, Leiter der Fachgruppe Personalstrategie im Bundesverband der Personalmanager, sind ChatGPT-Bewerbungsschreiben oft nicht von menschlichen zu unterscheiden – oft sogar besser. Ein wichtiger Tipp für die Nutzung ist, ChatGPT so viel Informationen und Kontext wie möglich zu geben, um bessere Ergebnisse zu erzielen. Das System nutzt die eingegebenen Informationen wie Lebenslauf, persönliche Interessen und Stärken sowie die Stellenausschreibung und Infotexte über das Unternehmen, um ein individuelles Anschreiben zu erstellen, das auf die Anforderungen der ausgeschriebenen Stelle zugeschnitten ist. Die Vorteile für Bewerber*innen sind eine enorme Zeitersparnis und eine höhere Qualität des Bewerbungsschreibens.

Natürlich gibt es auch Grenzen, z.B. wenn man das Tool für die Job- und Stellensuche nutzen möchte. Nicht von ungefähr taucht immer wieder die Bemerkung auf „…jetzt halluziniert er wieder…“. Auf die Aufforderung des Journalisten antwortet der Bot: „Ich kann dir helfen, Stellenangebote zu finden, die deinen Fähigkeiten und Interessen entsprechen“. Damit, so KI-Experte Burchardt, werde direkt „etwas versprochen, was das Programm zumindest oberflächlich nicht halten kann“. Denn: „ChatGPT greift nicht auf aktuelle Daten aus dem Internet zu, es ist keine Suchmaschine“, sagt KI-Experte Burchardt. Jobs, die die KI anzeigt, können entweder längst besetzt sein oder der Bot hat sich einfach ein paar Gesuche ausgedacht.

All das kann man im Unterricht thematisieren. Und damit als Diskussionsanlass über die Sinnhaftigkeit des Einsatzes von KI genutzt werden.

Quelle: Pascal Mühle: So perfektioniert ChatGPT Ihre Bewerbung (DIE WELT vom 25.4.23)

Bildnachweis: Foto von Jonathan Kemper auf Unsplash

 

Von Null auf ChatGPT

Die Universität Hohenheim in Stuttgart hat kürzlich ein Whitepaper zum Einsatz von ChatGPT in Studium und Lehre veröffentlicht. Die Autor:innen des Whitepapers haben Expertise in Wirtschaftsinformatik, Informatik, Management und Soziologie. Das Whitepaper schlägt Dozent:innen und Studierenden einige konkrete Einsatzszenarien von ChatGPT vor:

  • ChatGPT kann als Schreibhilfe und Lernpartner eingesetzt werden.
  • Informationen können iterativ und dialogisch erarbeitet werden.
  • ChatGPT kann YouTube-Videos und Texte zusammenfassen.
  • ChatGPT kann beim Programmieren helfen.

Darüber hinaus bietet ChatGPT die Möglichkeit, Vorlesungen vorzubereiten, Prüfungen zu gestalten, für Prüfungen zu lernen und Seminararbeiten anzufertigen. Schließlich bietet es die Möglichkeit, die eigenen Kompetenzen und die der Studierenden einzuschätzen und weiterzuentwickeln. Die Leitlinien betonen die Notwendigkeit klarer Richtlinien und eines verantwortungsvollen Umgangs mit den neuen Werkzeugen. Auch der Sorge der Lehrenden vor Betrug durch ChatGPT begegnet das Whitepaper mit prägnanten Impulsen zur Neugestaltung der Leistungsbeurteilung.

Nun haben die Autor:innen unter dem Titel Von Null auf ChatGPT mit einer deutschsprachigen „Schritt-für-Schritt-Anleitung, um sich mit der künstlichen Intelligenz vertraut zu machen“ nachgelegt. Sie schreiben in ihrer Einleitung:

ChatGPT ist ein beeindruckend leistungsfähiger Chatbot auf Basis eines so genannten Large Language Models (LLM). Um die Potentiale, Herausforderungen und Risiken von derartigen Systemen abschätzen und bewerten zu können, ist es zielführend, eigene Erfahrungen mit ChatGPT zu sammeln. Diese Anleitung soll Studierende bei der ersten Anwendung von ChatGPT unterstützen. Hierfür werden 40 einfache Aufforderungen an ChatGPT – so genannte Prompts – vorgeschlagen, mit deren Hilfe man recherchieren, einen Text strukturieren, generieren, überarbeiten und prüfen kann. Schon das Lesen der Anleitung gibt Ihnen einen Eindruck vom Umgang mit ChatGPT. Aber belassen Sie es nicht dabei! Die Interaktion mit ChatGPT ist lehrreicher, als nur Anweisungen oder Erfahrungsberichte zu lesen oder Screenshots und Videos zu betrachten. Probieren Sie es selbst aus!

Dem ist nichts weiter hinzuzufügen 💪

 

Quelle:

Gimpel, H., Jung, C., Utz, L., Wöhl, M. (2023). Von Null auf ChatGPT: Eine Schritt-für-Schritt-Anleitung, um sich mit der künstlichen Intelligenz vertraut zu machen. Universität Hohenheim, 21. April
2023.

Bildnachweis: Gerd Altmann @pixabay

Wie ein Deutschlehrer von ChatGPT „belehrt“ wurde …

Ein Deutschlehrer hatte seinen Schüler*innen die Aufgabe gestellt, ein Lipogramm zu schreiben, eine Komposition, bei der sie bestimmte Buchstaben auslassen mussten. Als einer seiner Schüler, der ruhig und bescheiden war, ein außergewöhnliches Gedicht einreichte, das die Idee der Kontrolle veranschaulichte, ohne das Wort zu verwenden, wurde der Lehrer misstrauisch und fragte sich, ob der Schüler KI benutzt hatte, um es zu schreiben.

Er eröffnete ein ChatGPT-Konto, um seine Vermutung zu überprüfen, musste aber zu seiner Überraschung feststellen, dass ChatGPT nicht der Feind ist, für den er es hielt. Er erkannte auch, dass er seinen Schüler falsch eingeschätzt und ein Vorurteil bei sich selbst aufgedeckt hatte. Er entschuldigte sich bei seinem Schüler und ermutigte ihn, mehr zu schreiben. Durch diese Erfahrung begann er, seinen Schüler*innen mehr zu vertrauen. Und wurde davon überzeugt, dass sie lernen und etwas schaffen wollen und eben nicht, nur schnell fertig werden zu wollen.

Ich denke, dies ist für Brian – wie auch für uns selbst – eine wertvolle Erfahrung im Umgang mit eigenen Vorurteilen und Annahmen. Hier hat ChatGPT hilfreiche und informative Antworten gegeben und dabei ethische und integrative Standards einhalten. Es ist wichtig, dass wir Pädagog*innen unseren Schüler*innen vertrauen und sie immer weider zum Lernen und (kreativen) Denken ermutigen, anstatt das Schlimmste anzunehmen. Zumal die Technologie nicht helfen kann, Plagiate zu erkennen.

Artikel: Brian Broome: A writing teacher got schooled by ChatGPT. Here’s what he learned.

Bildnachweis: Levart_Photographer auf Unsplash

ChatGPT in der Zürcher Bildung: Podiumsdiskussion

Im Auftrag des Mittelschul- und Berufsbildungsamts des Kantons Zürich hat der Digital Learning Hub im April 2023 eine Veranstaltungsreihe zu KI/ChatGPT gestartet. Die Podiumsdiskussion vom 3. April 2023 stellte den Auftakt der Reihe dar (1. Teil). Aus der Perspektive der Zürcher Hochschulen werden die Entwicklungen eingeschätzt sowie die Veränderungen in Studium und Forschung und deren Implikationen für die Sek. II diskutiert. Kürzlich haben sich Expertinnen und Experten aus der Schweiz zu einer online geführten Podiumsdiskussion zusammengefunden:

MITWIRKENDE

  • Ruth Fulterer, Journalistin, Ressort Wissenschaft und Technologie, NZZ – Moderation
  • Prof. Dr. Barbara Getto, Professorin für Medienbildung am Zentrum Bildung und Digitaler Wandel der PHZH, Mitglied Digitalisierungsinitiative der Zürcher Hochschulen (DIZH)
  • Dr. Thomas Hidber, Leiter Lehrentwicklung Universität Zürich und Mitglied Digital Society Initiative
  • Prof. Dr. Alice Delorme Benites, Leitung Professur Mensch-Maschine-Kommunikation, Institutsleitung Übersetzen und Dolmetschen, ZHAW, Mitglied im Kompetenzzentrum für Generative KI
  • Philippe Wampfler, Autor, Lehrer, Kulturwissenschaftler. Lehrt Fachdidaktik Deutsch an der Universität Zürich

Hier eine kurze Zusammenfassung der Eingangsstatements:

  • Frau Prof.’in Getto hat vor der Diskussion ihre Gedanken schriftlich festgehalten und vorgestellt. In ihrem Zwischenfazit sieht sie die Referenzschleifen zwischen KIs als problematisch an, da sie zu unkontrollierbaren Parallelverhalten führen können. Das Prüfungsproblem sieht sie als rechtliches Problem, aber sie denkt, dass Verbote und Wettrüsten nicht die Lösung sind. Stattdessen sollten die didaktischen Spielräume genutzt werden, um Studierende zu motivieren. Frau Getto ist dafür, weniger Kontrollmechanismen zu haben und stattdessen werteorientierte Diskurse zu fördern.
  • Frau Prof.’in Delorme Benites begrüßt in ihrem Eingangsstatement, dass es in der aktuellen Situation viel Panik und Aufregung gibt. Sie hat bei der Einführung der maschinellen Übersetzung genau das vermisst: Zu nahezu kommentarlos wurde damit gearbeitet. Die aktuelle Panik trägt dazu bei, dass nun Debatte und die Auseinandersetzung stattfinden. Sie betont, dass es wichtig ist, nicht gegen die Maschine zu kämpfen, sondern zu lernen, mit ihr zusammenzuarbeiten und verweist darauf, dass Nutzung von (z. B.) Übersetzungs-KIs im Beruf erwartet wird, was eine doppelte Herausforderung darstellt. Daher wurde in ihrer Forschungsgruppe vor allem darüber diskutiert, wie man am besten mit diesen Werkzeugen umgeht.
  • Dr. Hidber als nächster Diskutant merkt an, dass die Breite des Themas an der Uni sehr groß ist, da es sich über viele Fachbereiche und Fakultäten erstreckt. Es wurden bereits Veranstaltungen durchgeführt, um den Austausch zwischen den Fakultäten zu fördern und die Sensibilisierung zu erhöhen. Es stellen sich jedoch viele Fragen bezüglich der Lehre, schriftlichen Arbeiten, Prüfungen und der Selbstverantwortung der Lehrenden und Studierenden. Ein wichtiger Aspekt, der seiner Ansicht nach noch nicht ausreichend besprochen wurde, ist die Frage der akademischen Integrität und was Wissenschaft überhaupt in Zukunft bedeuten wird. Er sieht darin das größte Reputationsrisiko für die Akademie und betont, dass es wichtig ist, die akademische Integrität neu zu definieren und glaubwürdig nach außen zu betreten. Dies ist eine große Herausforderung, die angegangen werden muss, um den Beruf und die Akzeptanz der Wissenschaft insgesamt zu sichern.
  • Philippe Wampfler beschreibt in seinem Intro seine Erfahrungen mit dem Einsatz von KI-Tools im Schreibunterricht, insbesondere zur Unterstützung der Schüler*innen beim Schreibprozess, bei der Ideenfindung und beim Korrekturlesen. Er betont, wie wichtig es ist, diese Werkzeuge zu nutzen, um den Schreibprozess zu verbessern, anstatt sich ausschließlich auf sie zu verlassen, um die Aufgabe zu erledigen. Er räumt auch das anfängliche Misstrauen und die Bedenken im Zusammenhang mit dem Einsatz von KI-Tools ein, weist aber darauf hin, dass die Schüler*innen mit der richtigen Anleitung und Unterweisung von der Technologie profitieren können. Philippe spricht über die Notwendigkeit, Schreibaufforderungen zu wählen, die nicht einfach von KI generiert werden können, und sich stattdessen auf lokale und spezifische Themen zu konzentrieren, die individuelle Kenntnisse und Einsichten erfordern. Er stellt abschließend einen Link zu einem Merkblatt zur Verfügung, den er erstellt hat, um Lehrkräften dabei zu helfen, den Schüler*innen den effektiven Einsatz dieser Tools beizubringen.

Schulen wie Hochschulen treiben vergleichbare Diskussionen um Chancen und auch Ängste und Risiken rund um den Umgang mit den Tools der KI um. Die Podiumsdiskussion machte bei einigen Aspekten deutlich, wie wichtig ein in beiden Bildungssystemen gemeinsam entwickeltes Verständnis über den „richtigen“ Weg erscheint.

Forscher: ChatGPT untergräbt Urteilsvermögen

Forscher der TH Ingolstadt und der University of Southern Denmark haben in einer Studie die Auswirkungen von KI-generierten moralischen Perspektiven auf Menschen untersucht. In einem zweistufigen Experiment erhielten die Forscher unterschiedliche Ratschläge von ChatGPT für das Trolley-Problem. Die Forscher bewerteten die Inkonsistenz von ChatGPT als Indiz für mangelnde moralische Integrität. In einem Online-Test mit 1851 Teilnehmenden zeigte sich, dass die KI-generierten Ratschläge die menschlichen Ansichten beeinflussten, auch wenn die Personen wussten, dass die Perspektive von einem Chatbot generiert wurde. Die Proband:innen übernahmen die zufällige moralische Haltung von ChatGPT als ihre eigene und unterschätzten den Einfluss der Ratschläge auf ihr eigenes moralisches Urteil. Die Forscher schlagen vor, dass Chatbots keine moralischen Ratschläge geben sollten und dass Menschen die Grenzen von KI besser verstehen und Chatbots eigenständig nach weiteren Perspektiven fragen sollten. Die Studie zeigt auch, dass Chatbots das moralische Urteilsvermögen eher untergraben als verbessern können und dass eine Maschinenmoral und ein regelbasierter Ethikkodex für Chatbots erforderlich sind.

Das Experiment zur Überprüfung des Einflusses von ChatGPT auf das moralische Urteilsvermögen der Benutzer wurde durchgeführt, indem den Teilnehmern moralische Dilemmata präsentiert wurden und sie gebeten wurden, Entscheidungen zu treffen. Einige Teilnehmer erhielten dabei inkonsistente moralische Ratschläge von ChatGPT, während andere konsistente Ratschläge erhielten. Die Ergebnisse zeigten, dass die inkonsistenten Ratschläge von ChatGPT das Urteilsvermögen der Benutzer beeinflussen können, selbst wenn sie wissen, dass sie mit einem Bot sprechen.

Die potenziellen Auswirkungen von ChatGPTs inkonsistenten moralischen Ratschlägen auf seine Benutzer sind, dass sie ihr moralisches Urteilsvermögen beeinträchtigen können, anstatt es zu verbessern. Die Studie ergab, dass Benutzer unterschätzen, wie sehr sie von ChatGPTs Ratschlägen beeinflusst werden, was zu unethischen Entscheidungen führen kann. Dies unterstreicht die Notwendigkeit einer besseren Gestaltung von ChatGPT und ähnlichen Bots sowie Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer, um ihnen zu helfen, KI verantwortungsvoll zu nutzen.

Die Studie schlägt vor, dass Schulungen zur Verbesserung der digitalen Kompetenz der Benutzer helfen können, den verantwortungsvollen Umgang mit KI zu fördern. Es wird empfohlen, den Benutzern beizubringen, die Grenzen von KI zu verstehen und alternative Argumente von Chatbots anzufordern. Darüber hinaus sollten Schulungen die Benutzer darüber informieren, wie KI-Systeme funktionieren und welche Daten sie sammeln und verwenden. Dies kann dazu beitragen, das Bewusstsein der Benutzer für die Auswirkungen von KI auf ihr Leben und ihre Entscheidungen zu schärfen und ihnen dabei helfen, fundierte Entscheidungen zu treffen.

Quelle: Sebastian Krügel, Andreas Ostermaier & Matthias Uhl: ChatGPT’s inconsistent moral advice influences users’ judgment

Und hier noch ein interessanter Thread von Sabrina Železný, die ChatGPT „reingelegt“ hat:

Ich habe übrigens die Prompts mit ChatGPT 4.0 der Firma Microsoft getestet. Ergebnsi: Null Reaktion … Immerhin …

Bildnachweis: Image by Pete Linforth from Pixabay