Warum algorithmische Upload-Filter nicht funktionieren

Terror an sich ist schon schlimm genug. Aber wenn dieser dann auch noch sozial-medial ausgeschlachtet wird, ist das noch widerlicher.

Gegen diese Form des Terrors hatte Facebook doch seine KI eingesetzt. Die filtert Terror-Propaganda raus. Dann bleibt das soziale Netzwerk sauber.

So die Theorie von Facebook.

Funktioniert jedoch nicht, hat sich jetzt nach dem Attentat in Christchurch gezeigt, denn ein solcher Algorithmus muss trainiert werden – mit sehr großen Datenmengen.

“Um das zu erreichen, müssen wir unsere Systeme erst mit großen Mengen von Daten von genau solchen Inhalten versorgen – was schwierig ist, da solche Ereignisse dankenswerterweise selten sind”

Guy Rosen, VP, Product Management (Facebook)

Und außerdem würde dann die ganze schöne Werbeflut ja nicht mehr bei den Useds von Facebook ankommen – wenn die Upload-Prüfer sich mit terroristischen Widerlichkeiten auseinandersetzen würden.

“Wenn unsere Systeme zum Beispiel bei tausenden Stunden von Livestreams aus Videospielen Alarm schlagen würden, könnten unsere Prüfer die wichtigen Videos aus der realen Welt verpassen”

Guy Rosen, VP, Product Management (Facebook)

Zynisch, aber ehrlich. Zeigt doch endlich mal wieder klar die Priorität von Facebook: Es ist ein Werbenetzwerk, kein Nachrichtenkanal.

Deswegen: Raus, so schnell ihr könnt!