Mountain View (dpa) - Big Data gegen Hass-Rede und Online-Pöbelei: Die Google-Schwesterfirma Jigsaw hat den Dienst "Perspective" gestartet, mit dem im Netz leichter Kommentare identifiziert werden können, die als gehässig, unfreundlich, bösartig, gemein oder verletzend empfunden werden.
Im Rahmen der Digitalen News Initative (DNI) werde Jigsaw eine Schnittstelle (API) zur Verfügung stellen, mit der Verlage "Perspective" kostenlos nutzen können. Der Dienst wurde zuvor in Projekten mit der Wikimedia-Stiftung und der "New York Times" erprobt, um Hasspostings und Trollereien automatisch erkennen zu können. Dabei wurde unter anderem ein Datensatz aus insgesamt mehr als 115 000 Nachrichten von Wikipedia-Diskussionsseiten ausgewertet. Der Dienst steht vorerst nur für englischsprachige Diskussionsforen zu Verfügung. Im Rahmen der DNI könne das Projekt aber auf andere Sprachen wie Deutsch erweitert werden.
Jigsaw, ein Unternehmen der Google-Muttergesellschaft Alphabet, hat sich zum Ziel gemacht, "die Welt mit Technologie sicherer zu machen". Im Rahmen der DNI bietet Jigsaw Verlagen im "Project Shield" unter anderem einen kostenlosen Schutzschild gegen sogenannte Denial-of-Service-Attacken an, bei denen Wirtschaftskriminelle oder staatlich gesteuerte Hacker Webseiten der Verlage mit gigantischen Datenpaketen von Millionen gekaperten Computern aus einem Botnetz lahmlegen wollen.
Der Ansatz bei "Perspective" gehe deutlich über den Abgleich mit einer Liste verdächtiger Schlüsselbegriffe hinaus, sagte Jigsaw-Top-Manager Jared Cohen. Die künstliche Intelligenz erkenne, ob ein Beitrag von einem menschlichen Anwender als unangemessen beurteilt werde und ihn dazu bringe, die Konversation zu verlassen.
Eine Studie habe ergeben, dass 72 Prozent aller US-Amerikaner im Internet bereits Drangsalierung wahrgenommen hätten, fast die Hälfte aller Anwender habe dies auch bereits persönlich erlebt. Knapp ein Drittel der Befragten zensiere sich inzwischen bei Online-Kommentaren selbst, weil sie Racheaktionen befürchteten.
Das System von Jigsaw stelle auf einer Skala zwischen Null und 100 fest, wie "giftig" ("toxic") ein Kommentar sei. Was mit den Kommentaren dann passiere, liege in der Hand der Verleger. So könne man mit dem System Moderatoren der Verlage auf verdächtige Kommentare aufmerksam machen, die sich dann in die Konversation einschalten könnten. Man könne den Anwendern aber auch schon beim Schreiben des Kommentars anzeigen, wie "giftig" der Text eingeschätzt wird, um zu einem besseren Umgangston beizutragen. Außerdem könnten Leser die Kommentare so sortieren lassen, dass besonders gehässige Beiträge ausgeblendet werden. © dpa
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.