KI-Update – Ein Heise-Podcast

In den letzten Wochen und Monaten überschlagen sich die Neuigkeiten zu Künstlicher Intelligenz (KI). Jeden Tag gibt es neue Anwendungsbereiche, Warnrufe oder Jubelbotschaften. Im neuen Podcast „KI Update“ wird Isabel Grünewald gemeinsam mit Kolleginnen und Kollegen von heise online und den Magazinen c’t, MIT Technology Review, iX, Make sowie Mac & i Ordnung in das Gewirr der Entwicklungen rund um KI bringen.

Von Montag bis Donnerstag gibt es jeweils ab 15 Uhr einen Nachrichtenüberblick. Unterstützt werden wir dabei von The Decoder. Jeden Freitag veröffentlichen wir ebenfalls um 15 Uhr einen DeepDive, bei dem wir in ein Thema tiefer einsteigen: Mit wechselnden Gästen aus unseren Redaktionen sowie Expertinnen und Experten werden wir darin einzelne Aspekte der KI-Revolution beleuchten. Was ist Hype, was ist berechtigte Begeisterung? Was kann KI bereits, wie kann sie uns den Alltag erleichtern? Was kann KI noch nicht und was sollte sie vielleicht auch besser gar nicht können?

Wir stehen am Anfang einer Entwicklung, die vieles in unserem Alltag verändern wird. KI hat das Potenzial, unsere Arbeit zu erleichtern: Jan-Keno Janssen führt als Beispiel an, dass KI viele administrative Arbeit in der Pflege übernehmen könnte, damit das Pflegepersonal mehr Zeit für die eigentliche Arbeit mit den Menschen hat. Ärzte können auch mal schlechte Tage haben und etwas auf einem Röntgenbild übersehen, eine KI hat keine schlechten Tage. Vollautomatisierte Steuererklärungen wären für viele ein Traum. Journalistinnen und Journalisten kann KI helfen, Dinge schneller zu recherchieren, besser auf Ideen zu kommen, fehlerfreier zu schreiben, besser zu formulieren.[1]https://www.heise.de/news/KI-Update-neuer-Podcast-von-heise-online-9182034.html

Das „KI Update – Ein Heise Podcast“ ab sofort überall wo es Podcasts gibt.

Khanmigo, der erste „educational Bot“

Sal Khan, Gründer und CEO der Khan Academy, setzt sich in einem TED-Vortrag mit den Potenzialen von KI in der Bildung auseinander. Er plädiert dafür, sich nicht auf die aktuelle Schummel-Debatte einzulassen, sondern sich proaktiv mit den Chancen zu befassen, ohne die Risiken aus den Augen zu verlieren. Dabei bleibt er nicht in der Theorie stecken, sondern stellt mit Khanmigo einen Bot vor, der zeigt, wie Lernende und Lehrende in Zukunft von solchen Maschinen unterstützt werden können. Er zeigt an Beispielen, wie er als persönlicher Tutor oder Lehrassistent eingesetzt werden kann. Und er demonstriert, wie der Mathematikunterricht begleitet werden kann (Bilder ggfs. mit rechter Maustaste in einem neuen Tab vergrößert anzeigen lassen):

Eine Standardaufgabe aus der Jahrgangstufe 7/8:
 
 

Die KI zeichnet die Konversation auf, damit sich  die Lehkraft anschließend über den Lernfortschritt des Lernden informieren kann (siehe pinke Markierung).  Der Bot hilft der Schülerin/ dem Schüler mit gezielten Hinweisen und „löst nicht auf“:
 
 

Der blaue Kasten (siehe Bild unten) zeigt eine erste (immer mal wieder falsch vorgenommene) Umformung des Lernenden: 3 – 18 + 2m = m

Und so „antwortet“ der Bot:

 

Darüber hinaus setzt sich Khan mit dem Vorwurf auseinander, dass Kinder durch die KI das Schreiben verlernen würden, da sie das übernehmen würde. Er widerspricht und zeigt an einem Besipiel, wie Schülerinnen und Schüler mit einer KI Geschichten kollborativ entwickeln können (Bilder ggfs. mit rechter Maustaste in einem neuen Tab vergrößert anzeigen lassen):

Eine Schülerin, ein Schüler/ eine Schülerin will eine Horror-Story schreiben …

Die KI antwortet: „Oh, eine Horrorgeschichte, wie gruselig und aufregend. Lass’ uns in die Welt der unheimlichen Schatten und gruseligen Geheimnisse eintauchen …“ und im folgenden entsteht ein Dialog zwischen dem/der Lernenden und der KI, in dem beide Seiten je zwei Sätze schreiben:

Der Schüler, die Schülerin schreibt: “Beatrice war ein falsch eingeschätztes Gespenst. Es wollte Freunde finden, aber es erschreckte sie immer wieder aus Versehen.”
Und die KI ergänzt: „Arme Beatrice, ein einsames Gespenst, das die Kameradschaft (Freundschaft) sucht. Eines Tages stolperte sie über ein altes, verlassenes Herrenhaus, wo sie hoffte, ein paar andere Geister zu finden, mit denen sie sich anfreunden konnte. Das mit Efeu und Spinnweben bedeckte Haus hatte etwas Geheimnisvolles an sich.“

Im weiteren Verlauf des Vortrags stellt Khan einen Prototyp vor, wie die Akademie künftig Lehrkräfte bei der Unterrichtsplanung unterstützen wird und welche Entwicklungen er für den Bildungssektor in naher Zukunft erwartet. Recht frei übersetzt:

  • Interaktives Leseverständnis
  • KI-gesteuerte Interaktion zwischen Lehrkraft und Bot
  • AI-gestuerte Aktivitäten der Lehrenden
  • Dialoggesteuerte Bewertung von schriftlichen und anderen Arbeiten
  • Formativ gesteuerter Bericht über den Lernfortschritt der Lernenden
  • Lernberatung
  • Sprachgesteuerte Interaktionen zwischen Bot und Nutzer*innen

Abschließend geht Khan noch einmal auf die aktuelle Diskussion ein und fordert uns auf, „einen Schritt zurück auf die Metaebene“ zu gehen: Auf der einen Seite beschreiben die einen „dystopische Szenarien“, andere sehen Wendepunkte wie seinerzeit bei der industriellen Revolution. Er fordert uns auf, uns aktiv in den Gestaltungsprozess einzubringen und nicht abzuwarten, was passiert. Und er schließt mit seiner Sicht auf das Potenzial der KI, nämlich durch ihren Einsatz einen Mehrwert zu schaffen:

Because very close to my heart and obviously there’s many potential positive use cases, but perhaps the most powerful use case and perhaps the most poetic use case is if AI, artificial intelligence, can be used to enhance HI (human intelligence), human potential and human purpose.

Kommentar

Ich weiß nicht, wie es Ihnen geht, liebe Leserinnen und Leser, liebe Kolleginnen und Kollegen: Mir hat der Vortrag wieder einmal gezeigt, wie sehr die Entwicklungen der KI unser Bildungssystem revolutionieren werden, vor allem wenn man die Zukunftsaussagen von Khan zur Kenntnis nimmt. Wir sollten uns nicht dagegen wehren (wir können es ohnehin nicht verhindern), sondern uns konstruktiv damit auseinandersetzen. Schülerinnen und Schüler werden davon profitieren, wenn sie so früh wie möglich mit Robotik und deren Programmierung, Data Science, Machine Learning und den damit verbundenen Auswirkungen auf die Arbeitswelt vertraut gemacht werden, damit sie eine aktive Rolle in der sozioökonomischen und ethischen Debatte spielen können.

Wie wichtig es ist, sich mit diesen Themen auseinanderzusetzen, zeigt auch der jüngste Job Report des Weltwirtschaftsforums. Der Bericht betont, dass neue Technologien wie künstliche Intelligenz, Robotik und Automatisierung den Arbeitsmarkt weiter verändern werden, was sowohl zur Schaffung als auch zur Verdrängung von Arbeitsplätzen führen wird. Daher wird es für zukünftige Arbeitnehmer*innen unerlässlich sein, neue Fähigkeiten und Kompetenzen zu entwickeln, um sich für den Arbeitsmarkt anzubieten. Wir müssen diesen Kompetenzerwerb bereits in der Schule sicherstellen. Nicht durch neue Fächer, sondern durch veränderte und fächerübergreifende Curricula. Und vielleicht helfen uns Khans Entwicklungen dabei, wichtige Bausteine für unser tägliches Unterrichtsgeschehen zu finden.

… Stay Tuned …

Quelle:

Bildnachweis: (Teil-)Screenshot der App-Seite

Deutscher Bundestag veröffentlicht Studie zu ChatGPT

Selten hat ein Computersystem weltweit so viel Aufmerksamkeit und Debatten erregt wie ChatGPT seit seiner Einführung im November 2022. Der Chatbot beruht auf einem Computermodell, das mithilfe von Methoden der künstlichen Intelligenz (KI) auf die Verarbeitung sprachlicher Daten trainiert wurde. Er kann in kürzester Zeit eloquent erscheinende Antworten zu den unterschiedlichsten Themen generieren, ganze Essays oder Computerprogramme erstellen und Sprachstile wie Gedichte, Witze oder Erörterungen imitieren – und das in verschiedenen Sprachen.

Am Freitag, den 21.04.2023, hat der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages die im Februar 2023 in Auftrag gegebene Studie veröffentlicht. Darin werden die technologische Entwicklung von Computermodellen zur Sprachverarbeitung sowie ihre Möglichkeiten und Grenzen dargestellt. Zur Abschätzung der Chancen und Risiken, die sich aus der Anwendung von ChatGPT und vergleichbaren Systemen ergeben, werden konkrete Anwendungsszenarien in den Bereichen Wirtschaft, Gesundheit, öffentliche Kommunikation und Recht untersucht.

Potenziale der Systeme bestehen in der teilweisen Automatisierung der Produktion von Texten, der Softwareprogrammierung sowie der Übersetzung und Vereinfachung von Texten. Damit sind Entlastungs- und vor allem aber Rationalisierungseffekte erstmals auch in Branchen möglich, die bislang kaum von der Automatisierung durch Informations- und Kommunikationstechnologien betroffen waren. Es lassen sich auch gesellschaftliche Risiken identifizieren, etwa der Verlust der Vertrauenswürdigkeit von Informationen oder die Möglichkeit einer missbräuchlichen Nutzung, zudem können bestehende Ungleichheiten verstärkt und Diskriminierung Vorschub geleistet werden. Ziel der Studie ist es, für Politik und öffentliche Debatte relevante Fragestellungen abzuleiten, an denen sich eine an gesellschaftlichen Werten und Zielen ausgerichtete Entwicklung und Nutzung von ChatGPT und verwandten Systemen orientieren kann.

Um im Thema zu bleiben und ein weiteres Tool zu testen, habe ich die weitere Analyse mit dem KI-Tool ChatPDF durchgeführt. Dazu lädt man das PDF hoch und der Bot schlägt einem drei Fragen vor. Oder man stellt eigene. Hier das Ergebnis.

Analyse mit ChatPDF

Fragen

Das Hintergrundpapier wirft verschieden Fragen auf, die im Zusammenhang mit ChatGPT und anderen Computermodellen zur Sprachverarbeitung diskutiert werden. Einige dieser Fragen sind:

  • Wie können wir sicherstellen, dass diese Modelle nicht diskriminierend sind?
  • Wie können wir verhindern, dass diese Modelle missbraucht werden, um Falschinformationen zu verbreiten oder Menschen zu manipulieren?
  • Wie können wir sicherstellen, dass die Verwendung dieser Modelle transparent und nachvollziehbar ist?
  • Welche Auswirkungen haben diese Modelle auf die Arbeitswelt und wie können wir sicherstellen, dass sie nicht zu Arbeitsplatzverlusten führen?
  • Wie können wir sicherstellen, dass diese Modelle ethisch verantwortungsvoll eingesetzt werden?

 

Gibt es auch Antworten?

: Das Hintergrundpapier gibt keine direkten Antworten auf diese Fragen, sondern zielt darauf ab, Fragestellungen abzuleiten, unter denen die Rolle von KI-Modellen zur Sprachverarbeitung weiter beobachtet und untersucht werden kann. Es werden jedoch verschiedene Aspekte diskutiert, die bei der Beantwortung dieser Fragen berücksichtigt werden sollten. Zum Beispiel wird darauf hingewiesen, dass es wichtig ist, die Verwendung dieser Modelle transparent und nachvollziehbar zu gestalten und sicherzustellen, dass sie ethisch verantwortungsvoll eingesetzt werden. Es wird auch betont, dass weitere Forschung notwendig ist, um die Auswirkungen dieser Modelle auf die Gesellschaft besser zu verstehen und um mögliche negative Folgen zu vermeiden.

Welche Anwendungsbereiche werden in dem Papier positiv hervorgehoben?

/md: Ein Bereich, der positiv hervorgehoben wird, ist die Bildung. Es wird darauf hingewiesen, dass diese Modelle dazu beitragen können, den Lernprozess zu verbessern, indem sie personalisierte Lerninhalte bereitstellen und Feedback geben. Darüber hinaus können sie auch bei der Erstellung von Lehrmaterialien und bei der Entwicklung von Sprachlern-Apps eingesetzt werden. Weitere Anwendungsbereiche, die diskutiert werden, sind unter anderem die Medizin, die Automobilindustrie und die Finanzbranche.

Gibt es Bereiche, die kritisch gestellt sind?

/md: Ja, ein Bereich, der kritisch betrachtet wird, ist die mögliche Verbreitung von Falschinformationen und die Manipulation von Menschen durch den Einsatz dieser Modelle. Es wird darauf hingewiesen, dass diese Modelle dazu verwendet werden können, gefälschte Texte und Nachrichten zu erstellen, die schwer von echten Texten zu unterscheiden sind. Ein weiterer kritischer Aspekt ist die mögliche Diskriminierung von bestimmten Gruppen durch diese Modelle. Wenn die Trainingsdaten nicht ausgewogen sind oder bestimmte Gruppen unterrepräsentiert sind, können diese Modelle dazu neigen, Vorurteile und Diskriminierung zu reproduzieren.

Welche möglichen Auswirkungen haben diese Modelle auf die Gesellschaft und wie können negative Folgen vermieden werden?

: Das Hintergrundpapier diskutiert verschiedene mögliche Auswirkungen von ChatGPT und anderen Computermodellen zur Sprachverarbeitung auf die Gesellschaft. Einige dieser Auswirkungen sind positiv, wie zum Beispiel die Verbesserung des Lernprozesses oder die Unterstützung von medizinischen Diagnosen. Es gibt jedoch auch mögliche negative Auswirkungen, wie zum Beispiel die Verbreitung von Falschinformationen oder die Diskriminierung bestimmter Gruppen. Um negative Folgen zu vermeiden, schlägt das Hintergrundpapier verschiedene Maßnahmen vor. Zum Beispiel wird betont, dass es wichtig ist, die Verwendung dieser Modelle transparent und nachvollziehbar zu gestalten und sicherzustellen, dass sie ethisch verantwortungsvoll eingesetzt werden. Es wird auch empfohlen, dass diese Modelle regelmäßig überprüft werden sollten, um sicherzustellen, dass sie nicht diskriminierend sind oder Falschinformationen verbreiten. Darüber hinaus wird betont, dass weitere Forschung notwendig ist, um die Auswirkungen dieser Modelle auf die Gesellschaft besser zu verstehen und um mögliche negative Folgen zu vermeiden. Es wird empfohlen, dass Regulierungsbehörden und andere Interessengruppen zusammenarbeiten sollten, um sicherzustellen, dass diese Modelle verantwortungsvoll eingesetzt werden und um mögliche Risiken zu minimieren.

Schlussbemerkung

Die Studie bietet die Grundlage für eine Debatte zu ChatGPT im Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages. Zu der öffentlichen Sitzung am Mittwoch, den 26. April hat der Ausschuss eine Reihe von Expertinnen und Experten eingeladen. Erik Grundmann, ein Lehrer aus Frankfurt, hat die Sitzung mit seinen Schülerinnen und Schülern beobachtet und so in einem Thread kommentiert:

 

… Stay tuned …

Quelle: Studie zu ChatGPT für den Deutschen Bundestag

Hintergrundbericht des Büros Technikfolgenabschätzung (gewissermaßen ChatGPT analog 😉)

Ausschussitzung: Aufzeichnung in der Mediathek des Parlamentsfernsehen

Bildnachweis: Bildausschnitt aus Cover

Künstliche Intelligenz – Fluch oder Segen?

iHuman

ChatGPT ist in aller Munde. Das Mastermind hinter der bei OpenAI entwickelten Technologie ist Ilya Sutskever, einer der Experten, die in “iHuman” zu Wort kommen. Die bisher vor allem in Insiderkreisen geführte Diskussion über die tiefgreifenden Konsequenzen von Künstlicher Intelligenz schlägt seit der Veröffentlichung von ChatGPT4 hohe Wellen.

Vor einigen Wochen machten Wissenschaftler mit der Forderung nach einem Moratorium bei der Entwicklung von Künstlicher Intelligenz Schlagzeilen. Ausgelöst wurde dies durch die jüngste Veröffentlichung von ChatGPT4, einem Sprachmodell, mit dem die Nutzer über verschiedenste Themen sprechen können, das kreative Inhalte erstellt und sogar Bilder analysiert. Schlagartig wurden für eine breite Öffentlichkeit die Auswirkungen von KI auf alle Bereiche des Lebens, von der Bildung über den Journalismus bis hin zur Politik und Wirtschaft sichtbar.
Einer der frühen Warner vor unregulierten KI-Entwicklungen, einer möglichen “Allgemeinen Künstlichen Intelligenz”, und Mastermind hinter der ChatGPT-Technologie ist Ilya Sutskever, Forschungsleiter bei OpenAI. Er ist einer der Experten in “iHuman” und begründet die Notwendigkeit einer öffentlichen Debatte mit den tiefgreifenden und bahnbrechenden Konsequenzen einer KI, die “intelligenter” ist als der Mensch.
Viele digitale Agenten erleichtern schon jetzt den menschlichen Alltag. Sie lenken uns, gefüttert von dieser unsichtbaren Macht namens Künstliche Intelligenz. Der Dokumentarfilm begleitet KI-Pioniere dieser bislang eher geräuschlosen Revolution dabei, wie sie die neue Technologie entwickeln und implementieren. Damit verändern sie nicht nur die äußere Welt radikal, sondern auch das Selbstverständnis der Menschen.
“iHuman” fragt, welche Konsequenzen die Machtkonzentration der milliardenschweren KI-Industrie hat, die kaum staatliche Regulierung und Transparenz kennt.

Hier geht es zu dem sehr empfehlenswerten Film (bis 20.07.2023)

Bildnachweis: Screenshot arte

ChatGPT und die Arbeitskämpfe hinter künstlicher Intelligenz

Seit ChatGPT diskutiert die Welt über künstliche Intelligenz. Doch was bedeutet die neue Technologie für ein linkes emanzipatorisches Projekt? Darüber sprechen Inken und Valentin vom “Was Tun?”-Podcast mit den Soziolog*innen Milagros Miceli und Robert Dorschel. Es geht um die Mythen des Silicon Valley, die Ausbeutung prekärer Data-Worker im globalen Süden und das Klassenbewusstsein der Programmierer*innen im globalen Norden. Welche Strategien es braucht, damit künstliche Intelligenz zum Nutzen der Vielen und nicht nur den Profiten der Wenigen dient – das hört Ihr in der neuen Folge “Was tun?”.

In Ergänzung noch dieser Tipp:

Wie kreativ ist KI wirklich?

Eine Studie von Jennifer Haase (Humboldt-Universität zu Berlin) und Paul Hanel (University of Essex) hat die Kreativität von Menschen und künstlicher Intelligenz (KI) miteinander verglichen und kaum Unterschiede gefunden. Dabei mussten 100 Menschen und sechs generative KI-Programme den “Alternative Uses Test” absolvieren, bei dem für Alltagsgegenstände andere Verwendungsmöglichkeiten abgefragt wurden. Die Ergebnisse waren in Summe ähnlich. Doch während KI-Programme auf dem Gebiet der Alltagskreativität gute Ergebnisse erzielten, betonen die/der Studienautoren/-autorin, dass sie nicht pauschal als genauso kreativ wie Menschen betrachtet werden sollten. Expert*innen sagen, dass es einen wichtigen Unterschied zwischen der Fähigkeit von Menschen und KI gibt, große Werke zu schaffen und dass KI immer einen äußeren Anstoß benötigt, um kreativ zu werden.

Zum Artikel: Wie kreativ ist KI wirklich?

Zur Studie: Artificial muses: Generative Artificial Intelligence Chatbots Have Risen to Human-Level Creativity

Bildnachweis: pedrogoncalvesjardim from Pixabay