"Bundeskanzler und Außenministerin konnten sich nicht auf ein gemeinsames Konzept zur Nationalen Sicherheitsstrategie einigen, deshalb schreibt ChatGPT es nun." Das ist keine Schlagzeile, sondern ein Witz des Karikaturisten Heiko Sakurai.

Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Bot-Rede im Stadtrat …

Es gibt aber auch folgende echte Schlagzeile. "Stadtrat Landau: Politikerin hält Rede, die von künstlicher Intelligenz geschrieben wurde". Hintergrund ist die Rede einer Stadträtin der Satire-Partei "Die Partei". Sie hatte dem Bot Stichworte einer "Rede für die Stadt Landau in der Pfalz" wie "Haushaltsplan", "Nachhaltigkeit", "Klima", "Investitionen" und "Herausforderungen" vorgegeben.

Heraus kam ein Redetext mit 440 Wörtern. Er setzte sich aus typischen Phrasen zusammen, wie "Es ist wichtig, dass wir uns gemeinsam auf die wichtigsten Prioritäten konzentrieren".

… und unbemerkt im Europaparlament

Kürzlich ist ChatGPT gewissermaßen auch in das Europaparlament eingezogen. Der SPD-Politiker Tiemo Wölken hat im Europäischen Parlament kürzlich eine Rede gehalten, die von der ChatGPT verfasst war. Das hatte niemand bemerkt. Der EU-Politiker wollte so auf die Gefahren durch den Bot aufmerksam machen.

Sein Problem liegt auf der Hand: Abhängig von der "Datengrundlage kann ein KI-Text Menschen diskriminieren, Rassismus schüren oder Propaganda enthalten".

Technisch vergleichbar mit "Autocomplete"

Phrasen zu dreschen ist eine Spezialität des Textroboters. Die Informatikerin Marit Hansen, Landesbeauftragte für Datenschutz in Schleswig-Holstein, weist darauf hin, dass ChatGPT keine Software zur Wissensvermittlung ist. Sie sei vielmehr darauf programmiert, Stile nachzuahmen und mehr oder weniger schlaue und sinnvolle Inhalte aus Daten im Netz zu generieren und daraus Gedanken in menschlicher Sprache zu simulieren.

Das sei technisch vergleichbar mit der automatischen Vervollständigung bei der Google-Suche.

Vermeintlich "schlaue" Schwafelei

Bei der Standardversion von ChatGPT sind die Ergebnisse oft noch unbefriedigend. Die ChatGPT-Simulation menschlicher Aussagen hat etwas Schwafelndes. Mal machen die Ergebnisse des Computers mehr Sinn, mal weniger. Weil das bei menschlichen Aussagen genauso ist, besteht beim Einsatz des Textroboters das Risiko, dessen Aussagen nicht von menschlichen Texten unterscheiden zu können.

Ergebnisse lassen sich verbessern

Dass die Ergebnisse oft schlecht sind, liegt an der unspezifischen Suche. Fragt man die KI nach einer bestimmten öffentlichen Person, etwa aus dem Datenschutz, dann ist sie bei der Antwort überfordert, wenn sie für die Antwort das komplette Weltwissen durchforsten muss. Es ist aber vergleichsweise leicht möglich, der KI vorzugeben, bei Problemlösungen nicht mehr alle Daten des Netzes zu durchsuchen, sondern sich bei der Lösung konkreter Probleme auf den dafür relevanten Kontext von Daten zu beschränken.

Programmierung kann den KI-Blick schärfen

Darauf, dass auch die Programmierung Einfluss auf die Qualität der Ergebnisse hat, hat kürzlich der Informatiker Andreas Sachs, Vizepräsident des BayLDA, hingewiesen. Mithilfe sogenannter "Prompt-Programmierung" kann der Blick der KI fokussiert werden. Durch die Eingrenzung des Suchkontexts werden die Ergebnisse präziser. Ein Datenschützer, der der Maschine vorher unbekannt war und falsch eingeordnet wurde, wurde nach der Schärfung des Blicks ("suche nur im Kontext Datenschutz") zuverlässig gefunden und eingeordnet.

Spätestens so ist der Einsatz des Bots für Schulen und Hochschulen kein Problem. Schon heute löst er – sieht man etwa einmal von mathematischen Aufgabestellungen ab – Prüfungsfragen so gut, dass man in der Regel nicht mehr durchfällt, wenn man sich auf ihn verlässt.

Mehr zum Thema Digitales

Verwendete Quellen:

  • swr.de: Stadtrat Landau: Politikerin hält Rede, die von künstlicher Intelligenz geschrieben wurde
  • rnd.de: Künstliche Intelligenz schrieb Rede für Politiker – und niemand hat es gemerkt
  • dataagenda.de: Folge 32: ChatGPT – Herausforderungen für den Datenschutz
Interessiert Sie, wie unsere Redaktion arbeitet? In unserer Rubrik "So arbeitet die Redaktion" finden Sie unter anderem Informationen dazu, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte kommen. Unsere Berichterstattung findet in Übereinstimmung mit der Journalism Trust Initiative statt.
Neue Status-Features: WhatsApp führt neue Funktionen ein

Erweiterte Status-Features: WhatsApp führt neue Funktionen ein

2017 führte WhatsApp die Status-Funktion ein, kurze Nachrichten, die für alle Kontakte 24 Stunden sichtbar sind. Derzeit erweitert der Messenger-Dienst diese Funktion.
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.