Der BGH verhandelt am 22. Juli 2021 über Hatespeech und die Nutzungsbedingungen von Facebook. Die Entscheidung hat weitreichende Konsequenzen für die Frage, ob Unternehmen wie Facebook oder der Staat über die Grenzen der Freiheit entscheiden. Unsere Serie "Ein Gesetz für die Meinungsfreiheit" zeigt das Problem auf - und macht einen Lösungsvorschlag.
Gibt es bessere Menschen?
"Wir definieren Hassrede als direkten Angriff auf Personen aufgrund geschützter Eigenschaften: (…) Geschlecht (…)." Wir definieren Angriffe als (…) Aussagen über Minderwertigkeit (…)." So heißt es in den Nutzungsbedingungen von Facebook.
Warum muss eine Facebook-Gruppe nicht verboten werden, die Frauen pauschal zu besseren Menschen erklärt und damit die anderen Geschlechter zu schlechteren Menschen degradiert und sie damit diskriminiert? Schließlich ist die Aussage "Frauen sind die besseren Menschen" eine Aussage über die Minderwertigkeit des diversen und des männlichen Geschlechts.
Gesetzliche Regelung ist erforderlich
Hier zeigt sich, dass nicht nur Anbieter sozialer Netzwerke, sondern auch die Gerichte bei der Kontrolle der Anwendung der Nutzungsbedingungen aufgrund ihrer wenig konkreten und schwammigen Formulierungen überfordert sind, wenn es darum geht, verbotene Meinungen zu identifizieren.
Auch das aktuelle AGB-Recht ist zu unspezifisch, um die Meinungsfreiheit in sozialen Netzwerken zu schützen. Auf seiner Basis können die Grenzen der Meinungsfreiheit jenseits strafbarer Äußerungen im Machtbereich Privater nicht ausgelotet werden. Wegen ihrer fundamentalen Bedeutung als Grundlage und Voraussetzung einer funktionierenden Demokratie müssen sie in einem transparenten parlamentarischen Verfahren, also in einem Gesetz, ausgestaltet werden.
Anpassung des Rechts der Allgemeinen Geschäftsbedingungen
Anknüpfungspunkt für eine gesetzliche Regelung wäre eine Anpassung des Rechts der AGB im Bürgerlichen Gesetzbuch (BGB). Schließlich geht es um ein Rechtsverhältnis zwischen Privaten, für das eine klassische Medienregulierung durch Medienaufsichtsbehörden nicht gewollt ist und auch zu schwerfällig wäre.
Der Gesetzgeber könnte im BGB eine Norm schaffen, die relevanten Medienintermediären eine rechtssichere Möglichkeit bietet, ihre Löschungsrechte zu regeln. Regelungstechnisch könnte man nach dem Vorbild des Musters für Widerrufsbelehrungen bei Finanzdienstleistungen verfahren, das im Einführungsgesetz zum BGB verankert ist.
Gesetzliche Muster-AGB können für Rechtsklarheit sorgen
Der Gesetzgeber könnte "Muster-AGB" für die Meinungsfreiheit und ihre Grenzen vorgeben, die in die übrigen AGB der Plattformen eingefügt werden können. Verwenden die Plattformen diese AGB, kann ein Gericht sie nicht für unwirksam erklären. Die Kontrolle, ob die Plattformen die AGB richtig anwenden, obläge dann zwar auch wiederum den Zivilgerichten. Erstinstanzlich wären grundsätzlich die Amtsgerichte zuständig, da der Bundesgerichtshof die Streitwerte für entsprechende Verfahren der Bedeutung einer einzelnen Äußerung und einer zeitlich begrenzten Kontensperrung gemäß mit Eurobeträgen im niedrigen vierstelligen Bereich bewertet.
Auf diese Weise kann flächendeckend, sach- und bürgernah sowie schnell die Rechtsanwendung kontrolliert werden. Verzichtet die Plattform darauf, diese AGB zu verwenden, muss sie mit der sich daraus ergebenden Rechtsunsicherheit und gegebenenfalls sehr unschönen Posts auf ihren Seiten leben. Warum sie sich für diese Option entschieden hat, wird sie der Öffentlichkeit erklären müssen. Inhaltlich ginge es darum, die AGB gesetzlich verfassungskonform zu überformen und den Anbietern einen Rahmen zu stecken, in ihrem Machtbereich auch solche Äußerungen zu unterbinden, die keine strafbaren Inhalte aufweisen.
Konkrete Tatbestände benennen
Ein konkreter Ansatz könnte es sein, die "Äußerungsdelikte" des Strafgesetzbuches, die in § 1 Abs. 3 NetzDG aufgelistet sind, moderat zu erweitern. Einschlägige Delikte wären insbesondere Volksverhetzung, Androhung und Billigung von Straftaten. Bei diesen Tatbeständen könnte man die Voraussetzung "die geeignet ist, den öffentlichen Frieden zu stören" streichen. Damit würde man auch dann eine Löschung ermöglichen, wenn es an dieser Voraussetzung fehlen und daher keine strafbare Handlung vorliegen würde.
Besonderer Schutz für geschlossene Nutzergruppen?
Manche Straftatbestände setzen ein "Verbreiten" voraus. Dazu müssen Inhalte für einen größeren, für den Täter selbst nicht mehr kontrollierbaren Personenkreis zugänglich gemacht werden. Weil das bei geschlossenen Gruppen oft zweifelhaft sein dürfte, könnte man in den AGB auch auf dieses Tatbestandsmerkmal verzichten. Der Punkt ist aber heikel. Dürfen geschlossene Benutzergruppen privilegiert werden, weil im "digitalen Küchenkabinett" ein rauerer Ton herrschen darf?
"Zieht den Bayern die Lederhosen aus" mag auf der einen Seite in einer Gruppe von Fußballfans harmlos klingen. Wenn der Fanclub "Wilde Horde" aber im gewaltbereiten Umfeld einer geschlossenen Nutzergruppe mit dieser Parole zum Sturm auf die Fankurve der Bayern bläst, dann ist die Besserstellung des Gewaltaufrufs im geschlossenen Chat mehr als fragwürdig. Einen "Sturm auf das Kapitol" jedenfalls dürfte auch eine geschlossene Nutzergruppe auslösen können.
Auseinandersetzung in der Sache erforderlich
Beim Beleidigungstatbestand des § 185 StGB wäre zu erwägen, ob eine Löschung schon dann möglich ist, wenn es nicht mehr um die Auseinandersetzung in der Sache geht, sondern die Diffamierung der Person im Vordergrund steht. Das Bundesverfassungsgericht fordert in ständiger Rechtsprechung grundsätzlich eine komplizierte Abwägung zwischen den Persönlichkeitsrechten und dem Recht auf freie Meinungsäußerung. Das gilt nur dann nicht, wenn Schmähkritik vorliegt. Dafür verlangt Karlsruhe aber zudem, dass eine zu verbietende Äußerung keinen irgendwie nachvollziehbaren Bezug mehr zu einer sachlichen Auseinandersetzung hat.
Es darf also nur um das grundlose Verächtlichmachen der betroffenen Person als solcher gehen. Dies hat unlängst das Landgericht Berlin dazu verleitet, die Bezeichnung einer Politikerin als "Drecksf***e" deshalb für rechtmäßig anzusehen, weil sie im Zusammenhang einer (früheren) Meinung in ihrer Partei zum sexuellen Missbrauch von Kindern verwendet worden ist.
Die hier vorgeschlagene Formulierung würde also die Löschungsmöglichkeiten deutlich erweitern. So könnte auf ihrer Grundlage eine Stellungnahme zu der Politikerin, die sich etwa in der Bewertung "gehirnamputiert" erschöpft, ebenfalls gelöscht werden. Nutzern würde "zugemutet", wenigstens auch Sachargumente vorzubringen, wenn sie sich an einer Diskussion beteiligen wollen.
Keine "Lieblingsopfer" - es kommt nicht darauf an, wer beleidigt wird
Schließlich könnte den Anbietern gesetzlich aufgegeben werden, sich zu verpflichten, alle entsprechenden Inhalte zu löschen. Diese Forderung entspräche Art. 3 GG und sie leitet sich aus der "Stadionverbot-Rechtsprechung" des Bundesverfassungsgerichts ab. Dieser Gedanke wäre wichtig, um zu unterbinden, dass beim Sperren oder Löschen nach AGB danach differenziert wird, wer beleidigt wurde.
Auch der EuGH (Urt. v. 3.10.2019 – C-18/18 Rn. 37 ff.) hat entschieden, dass wort- oder sinngleiche Beiträge zu löschen sind. Damit setzt sich eine Wertentscheidung für gleichgelagerte Beiträge durch. Bei Umformulierungen durch Dritte wird so eine gleichheitswidrige Differenzierung bezogen auf den Äußernden unterbunden. Der "Bayernhass" der Toten Hosen ["Was für Eltern muss man haben, um so verdorben zu sein,
einen Vertrag zu unterschreiben bei diesem Scheißverein?" - Auszug aus dem Lied "Bayern"; Anm.d.Red.] mag wohlfeiler und eingeübter sein als die Ablehnung einer Religion. Der Gleichheitssatz misst Popkultur und Religionskritik aber an derselben Elle.
Der Staat muss die Grenzen bestimmen – soziale Netzwerke müssen sie achten
Meinungsmächtige Torwächter sind Quasimonopolisten der Kommunikation und benötigen eine staatliche Leine. Das gebietet ihre Gefährlichkeit für Meinungsfreiheit und Demokratie. Die Unternehmerfreiheiten der privaten Anbieter verlangen aber den Spielraum einer langen Leine. Durch die Anpassung des AGB-Rechts kann der Staat den großen Medienintermediären Freiheit in rechtlichen Grenzen gewähren. Der Sinn dieser langen staatlichen Leine liegt darin, dass die Unternehmen sie nicht spüren. Man muss sie aber im Ernstfall ziehen können.
Ein Gesetz für die Meinungsfreiheit
Nur durch ein Gesetz für die Meinungsfreiheit kann man für Nutzer, Anbieter und Staat Freiheit und Sicherheit erzeugen über das, was man unter seiner Rechtsordnung sagen darf. Lässt der Staat weiterhin zu, dass private Anbieter öffentliche Kommunikationsräume schaffen und die Grenzen der verbotenen und erlaubten Meinungen ziehen, dann billigt er eine Welt, in der Auseinandersetzungen allein durch die Wertentscheidungen Privater legitimiert und sanktioniert werden. Das ist wegen der Ubiquität der privaten Kommunikationsräume auch vor dem Hintergrund der Privatautonomie mit der Bedeutung der Meinungsfreiheit unvereinbar.
Regulierung ermöglicht Verantwortung
Auf der anderen Seite ist es für den Staat erforderlich, gefährliche Geschäftsmodelle rund um die Grenzen der Meinungsfreiheit zu regulieren, um sie verantworten zu können. Die Kompetenz zur Regelung des Rechts der AGB wäre für den Bund eröffnet und europarechtlich nicht determiniert. Der Weg über die Konturierung der Vertragsfreiheit würde neben die vorhandenen Regulierungen im Netzwerkdurchsetzungsgesetz und Telemediengesetz auf nationaler Ebene und im Entwurf des Digital Services Act auf EU-Ebene treten.
Lesen Sie alle Teile der Reihe:
- Teil 1: Zu viel Macht für Datenriesen
- Teil 2: Gesetzesrecht vor Hausrecht
- Teil 3: Hassen nach privaten Regeln
- Teil 4: Wie definiert man Hass?
- Teil 5: Verantwortung für die Freiheit (aktueller Artikel)
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.