"Jigsaw"-Projekt

Künstliche Intelligenz soll Hass-Poster bekämpfen

Web
23.02.2017 13:50

Big Data gegen Hass-Rede und Online-Pöbelei: Die Google-Schwesterfirma Jigsaw hat am Donnerstag den Dienst "Perspective" gestartet, mit dem im Netz leichter Kommentare identifiziert werden können, die als gehässig, unfreundlich, bösartig, gemein oder verletzend empfunden werden.

Im Rahmen der Digitalen News Initative (DNI) werde Jigsaw eine Schnittstelle (API) zur Verfügung stellen, mit der Verlage "Perspective" kostenlos nutzen können. Der Dienst wurde zuvor in Projekten mit der Wikimedia-Stiftung und der "New York Times" erprobt, um Hasspostings und Trollereien automatisch erkennen zu können.

Dienst kann vorerst nur Englisch
Dabei wurde unter anderem ein Datensatz aus insgesamt mehr als 115.000 Nachrichten von Wikipedia-Diskussionsseiten ausgewertet. Der Dienst steht vorerst nur für englischsprachige Diskussionsforen zu Verfügung. Im Rahmen der DNI könne das Projekt aber auf andere Sprachen wie Deutsch erweitert werden.

Jigsaw, ein Unternehmen der Google-Muttergesellschaft Alphabet, hat sich zum Ziel gemacht, "die Welt mit Technologie sicherer zu machen". Im Rahmen der DNI bietet Jigsaw Verlagen im "Project Shield" unter anderem einen kostenlosen Schutzschild gegen sogenannte Denial-of-Service-Attacken an, bei denen Cyberkriminelle oder staatlich gesteuerte Hacker Webseiten mit Massenanfragen von Millionen gekaperten Computern aus einem Botnetz lahmlegen wollen.

KI erkennt unangemessene Beiträge
Der Ansatz bei "Perspective" gehe deutlich über den Abgleich mit einer Liste verdächtiger Schlüsselbegriffe hinaus, sagte Jigsaw-Top-Manager Jared Cohen. Die künstliche Intelligenz erkenne, ob ein Beitrag von einem menschlichen Anwender als ungemessen beurteilt werde und ihn dazu bringe, die Konversation zu verlassen.

Eine Studie habe ergeben, dass 72 Prozent aller US-Amerikaner im Internet bereits Drangsalierung wahrgenommen hätten, fast die Hälfte aller Anwender habe dies auch bereits persönlich erlebt. Knapp ein Drittel der Befragten zensiere sich inzwischen bei Online-Kommentaren selbst, weil sie Racheaktionen befürchteten.

Tool beurteilt "Giftigkeit" von Postings
Das System von Jigsaw stelle auf einer Skala zwischen Null und 100 fest, wie "giftig" ("toxic") ein Kommentar sei. Was mit den Kommentaren dann passiere, liege in der Hand der Verleger. So könne man mit dem System Moderatoren der Verlage auf verdächtige Kommentare aufmerksam machen, die sich dann in die Konversation einschalten könnten.

Man könne den Anwendern aber auch schon beim Schreiben des Kommentars anzeigen, wie "giftig" der Text eingeschätzt wird, um zu einem besseren Umgangston beizutragen. Außerdem könnten Leser die Kommentare so sortieren lassen, dass besonders gehässige Beiträge ausgeblendet werden.

 krone.at
krone.at
Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele