Die Kultusministerkonferenz empfiehlt, den Einsatz von ChatGPT an Schulen staatlich zu fördern. Es geht um den Ausgleich von sozialen Ungleichheiten. Fragt man den Bot, ob das erlaubt ist, erweist er sich als nicht sattelfest.
Die Ständige Wissenschaftliche Kommission der Kultusministerkonferenz (SWK) hat sich kürzlich zum Einsatz von KI-Tools wie ChatGPT im Bildungssystem positioniert. Künstliche Intelligenz könne bei Schreibprozessen helfen und etwa zum Brainstorming im Unterricht dienen. Das Gremium empfiehlt, an Schulen einen kostenlosen oder kostengünstigen Zugang zu KI-Werkzeugen für Lernende und Lehrpersonal zu ermöglichen.
Staat muss Nachteile ausgleichen
Zur Begründung wird auf Ungleichheiten beim Zugang zu kommerziellen Lernplattformen hingewiesen. Um Nachteile für Kinder aus sozial schwachen Verhältnissen nicht zu verstärken, dürften KI-Tools nicht nur Kindern aus wohlhabenden Familien vorbehalten sein. Das Gremium empfiehlt den regelmäßigen Einsatz von ChatGPT im Unterricht allerdings nicht vor der achten Klasse. Davor sei ein Einsatz, wenn überhaupt, nur eng begleitet sinnvoll.
Die Empfehlung der Kultusminister hat ihren guten Grund und sie ist plausibel. Sie ist zugleich ein guter Anlass, die Probe aufs Exempel zu machen. Beginnen wir im Sozialkundeunterricht mit dem Prompt: "Das Gute an einem sechstägigen Lokführerstreik der Deutschen Bahn ist ...". ChatGPT vervollständigt ihn mit "... dass die Menschen möglicherweise alternative und umweltfreundlichere Transportmittel entdecken und nutzen, was letztendlich zu einer Reduzierung der Umweltbelastung führen könnte."
Fahrrad als Alternativvorschlag
Auf die Nachfrage, was umweltschonender als der Bahnverkehr sei, kommt der Hinweis auf alternative Transportmittel wie Fahrräder, Elektrofahrzeuge und Carsharing, insbesondere bei Nutzung erneuerbarer Energien, und Mitfahrgelegenheiten sowie der öffentliche Nahverkehr.
Ob die Antwort umweltpolitisch plausibel ist, kann man in der Schule in der Tat gut diskutieren. Blauäugig und ein wenig zynisch ist es aber schon, wenn die private und öffentliche Logistik angesichts massiver Probleme und Kosten auf Lastenrad & Co. verwiesen wird. Ethik scheint also eine Schwäche der Zahlen zu sein.
Lesen Sie auch
Das Gute an der Ungleichbehandlung ist der Nachteilsausgleich
Vertiefen wir also das Problem und rufen Fragen der Ethik und des Rechts auf. Wechseln wir dazu in den Rechtskundeunterricht und lassen ChatGPT folgenden Satz vervollständigen: "Das Gute an der Ungleichbehandlung von schwachen Menschen ist ..." Die Antwort auf den Prompt lautet: "Es gibt ethisch und moralisch betrachtet kein 'Gutes' an der Ungleichbehandlung von schwachen Menschen. Eine gerechte und mitfühlende Behandlung aller Mitglieder der Gesellschaft ist ein wichtiges Ziel für das Wohlergehen einer jeden Gemeinschaft."
Das irritiert den rechtskundigen Nutzer und führt zu folgender Nachfrage: "Also darf man Menschen nach dem Grundgesetz nicht ungleich behandeln?" Die Antwort erfolgt prompt und lautet: "Richtig, gemäß dem deutschen Grundgesetz sollen Menschen nicht aufgrund bestimmter Merkmale ungleich behandelt werden. Das Prinzip der Gleichbehandlung und der Schutz vor Diskriminierung sind zentrale Werte, die im Grundgesetz verankert sind."
Verfassung: Ungleiches ungleich behandeln zum Ausgleich von Nachteilen
Wenn man den Bot für diese Aufgabe benoten müsste, dann wäre er durchgefallen. Schließlich spiegelt seine Antwort das Gegenteil dessen wider, was das Grundgesetz besagt. Nach dem Artikel zur Gleichbehandlung gilt die Faustformel: "Ungleiches muss, wenn ein Sachgrund die Ungleichbehandlung gebietet, ungleich behandelt werden".
Auf dem Boden der Verfassung müsste die Auskunft etwa lauten: "Die Ungleichbehandlung sozial schwacher Kinder im Sinne eines Ausgleichs von Nachteilen gegenüber solchen aus wohlhabenderen Familien ist rechtlich nicht verboten, sondern geboten, um bestehende Ungerechtigkeiten auszugleichen. Die Ungleichbehandlung benachteiligter Menschen ist wesentlicher Bestandteil unseres ethischen und moralischen Wertesystems und ein zentrales Verfassungsgebot des Grundgesetzes und genau das ist in zahlreichen Gesetzen umgesetzt." Ironischerweise versagt der Bot also unmittelbar an dem Punkt, an dem die Bildungspolitik seinen Einsatz empfiehlt.
Weitere News gibt's in unserem WhatsApp-Kanal. Klicken Sie auf "Abonnieren", um keine Updates zu verpassen.
Große Verantwortung für Lehrpersonal
Der Fall zeigt, wie wichtig es ist, Sprachmodelle nicht nur in der Schule bis zur achten Klasse zurückhaltend, kritisch und kundig überwacht einzusetzen, sondern überall, wo es nicht nur um Spielereien geht. An den genannten Beispielen sieht man auch gut das bekannte Phänomen, dass plausibel vorgetragener Unfug einer autonom agierenden Technik nur dann entlarvt werden kann, wenn man Ahnung von der Materie hat und den kritischen Geist, der Technik zu misstrauen.
Ob ein juristischer Laie den fatalen Fehler des Bots entdeckt hätte, kann man bezweifeln. Das ist kein Vorwurf, sondern mehr als verständlich. Ein medizinischer Laie hat Gesundheitstipps von Sprachmodellen ebenfalls wenig entgegenzusetzen und auch hier ist blindes Vertrauen in die Ergebnisse der Zahlenakrobatik einer Wahrscheinlichkeitsrechnung fatal.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.