Ohne die Hilfe künstlicher Intelligenz (KI) wird es in der Digitalisierung nicht weitergehen. Aktuell wird auf EU-Ebene eine KI-Verordnung entwickelt. Darum geht es.

Rolf Schwartmann
Eine Kolumne
Diese Kolumne stellt die Sicht des Autors dar. Hier finden Sie Informationen dazu, wie wir mit Meinungen in Texten umgehen.

Die EU will besonders riskante Anwendungen künstlicher Intelligenz besonderen rechtlichen Regeln unterziehen. Entscheidungen, die für den Menschen kein Risiko bergen, brauchen nicht allein deshalb besondere Regeln, weil sie von Maschinen getroffen werden. Risikoreiche Anwendungen, die menschliches Verhalten auswerten und den Menschen steuern können, will man verbieten.

Anwendungen, die zwar nicht risikolos, aber mit Blick auf ihr Gefährdungspotential kalkulierbar sind, will man von Voraussetzungen abhängig machen. Das gilt etwa für den Einsatz künstlicher Intelligenz bei der Verbrechensbekämpfung.

Es kommt auf das richtige Maß an

Beim Einsatz von künstlicher Intelligenz gibt es viele Zweifelsfälle. Kann zum Beispiel die weithin bekannte algorithmenbasierte, kundenorientierte Werbeansprache riskant und deshalb regulierungsbedürftig werden, weil sie zu sehr in das Bewusstsein der Menschen dringt? Einzelheiten dazu muss der Europäische Gesetzgeber entscheiden. Er muss dabei das richtige Maß wahren.

Nur bei besonderem Risikopotenzial algorithmendeterminierter Entscheidungen ohne menschliches Zutun hat die Datenethikkommission eine Nachbesserung des europäischen Rechts verlangt. Zu Recht, denn es ist schließlich ein Unterschied, ob per Algorithmus ein schlechter Versicherungsvertrag vorgeschlagen wird oder ob man von einem "Roboterstaatsanwalt" vor Gericht angeklagt wird. Es bedarf jedenfalls dann eines risikoabhängigen Schutzes und spezifischer Verteidigungsmöglichkeiten gegen die Algorithmen, wenn der Mensch zum Objekt der Maschine wird.

Lesen Sie auch: KI vollendet Beethovens Unvollendete - ein Experiment mit der Seele eines Toten

Fehlende Diversität als Rechtsrisiko?

Dass die Empfehlung einer Maschine für einen Schuhkauf ein Fall für die Algorithmenkontrolle der KI-Verordnung wird, weil sie Fragen der Diversität nicht berücksichtigt, wird diskutiert. Stellt das ein regulierungsbedürftiges ethisches oder rechtliches Risiko dar? Darüber kann man lange streiten.

KI in der Justiz

Andere Fälle sind eindeutiger. Etwa bei staatlichen Anwendungen, insbesondere im Bereich der Justiz. Hier sind wir im digitalen Zeitalter auf die Hilfe künstlicher Intelligenz angewiesen, wenn man der Internetkriminalität etwas entgegensetzen möchte.

Nur KI kann nämlich schnell und treffsicher Bild- und Videodateien auf strafbare Inhalte überprüfen. Sie schlägt Alarm, wenn ein Kinderfoto pornografisch ist und kann es von einem harmlosen Strandfoto unterscheiden.

Europaparlament erörtert künstliche Intelligenz

Im Europaparlament wird die KI-Verordnung aktuell debattiert. Das Anliegen der dortigen Wirtschaftspolitiker ist es, die Anforderungen an die riskante Anwendungen nicht zu überspannen. Wenn Algorithmen für Leib, Leben oder Eigentum gefährlich werden oder in die Psyche der Menschen eindringen, weil sie deren Gedanken beeinflussen, wird es kritisch.

Spielraum für die Wirtschaft

Das ist wichtig, denn nur wenn es rechtlichen Spielraum für die technische Entwicklung harmloser, notwendiger und sinnvoller KI-Anwendungen gibt, kann die europäische Wirtschaft bestehen. Hier ergibt es Sinn, neben der konkreten Nutzung einer Anwendung zusätzlich auf deren Kontext zu achten. Nur wenn Kontext und Nutzung kritisch sind, muss man besondere Regeln treffen. So sieht es der für die KI-Verordnung federführend zuständige EU-Parlamentarier Axel Voss.

Das hat etwas für sich, denn ein Getränkeautomat, der einem Nutzer das passende Getränk anbietet, braucht auch dann keinen besonderen Rechtsrahmen, wenn er in einem Weltraumforschungszentrum steht, das mit risikoreicher künstlicher Intelligenz vollgestopft ist.

Mehr Digitalthemen finden Sie hier