PC-WELT Alle NewsIn einem internen Rating-System stuft Facebook die Glaubwürdigkeit von Nutzern ein, die regelmäßig Fake News melden. Vergrößern Facebook vertraut bei Fake News unter anderem auf ein internen Trust-Score-System. © Facebook Bei Facebook kommt ein internes Rating-System zum Einsatz, bei dem die Glaubwürdigkeit von Nutzern eingestuft wird, die dem Portal regelmäßig Nachrichten als Fake News melden. Das will die Washington Post aus firmeninternen Quellen erfahren haben. Laut der Zeitung wurden die so genannten Trust-Ratings im vergangenen Jahr bei Facebook eingeführt, während der Konzern neue Möglichkeiten zur Verbreitung von Fake News und Propaganda entwickelte. Um Falschmeldungen aufzuspüren, verlässt sich Facebook zum Teil auf das Nutzer-Meldesystem, über das Facebook-Mitglieder bestimmte Berichte als Fake News kennzeichnen können. Wenn eine News von genügend Nutzern als Fake News über dieses System gemeldet wird, wird sie vom Facebook-Team überprüft. Da es zeitlich nicht möglich ist, jede gemeldete News zu überprüfen, verlässt sich Facebook bei der Einstufung auf weitere Faktoren – etwa die Glaubwürdigkeit der Nutzer, die diese News als Fake gekennzeichnet haben. Meldet ein Nutzer häufig News als Fake und sie stellen sich bei der Überprüfung tatsächlich als falsch heraus, steigt sein Trust-Score. Meldet er News als Fake, die sich nicht als Fake News herausstellen, geht sein Trust-Score nach unten. Gegenüber Gizmodo betont Facebook, dass es sich dabei nicht um einen generellen, zentralisierten Glaubwürdigkeits-Score für Nutzer handle, sondern lediglich um eine Einstufung in Bezug auf die Meldung von Fake News. Ob der Trust-Score auch hinzugezogen wird, wenn Nutzer ein anderes Problem oder unangebrachte Inhalte auf Facebook melden, ist nicht bekannt. Die 23 besten Facebook-Tipps: Ihr Account unter Kontrolle

weiterlesen: RSS Quelle öffnen