Facebook a désactivé 583 millions de faux comptes en trois mois

Alain Brian
Mai 16, 2018

Dans l'ensemble, estime le réseau social, sur 10 000 contenus visionnés sur Facebook, " 7 à 9 % " n'étaient pas conformes à sa politique en matière de nudité adulte et de pornographie. Une conséquence, sans doute, du scandale Cambridge Analytica.

Facebook a publié pour la première fois, ce mardi, un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d'utilisation, qu'il s'agisse d'images à caractère sexuel, de commentaires haineux ou de propagande terroriste.

1,9 million de contenus de propagande terroriste ont été supprimés au premier trimestre, soit 73% de plus qu'au 4e trimestre 2017.

Un bond lié principalement, selon le réseau, à une amélioration de ses technologies d'analyse, qui font de plus en plus appel à l'intelligence artificielle. 99,5% d'entre eux ont été supprimés avant tout signalement.

La prolifération d'images violentes n'est pas en reste, non plus. La plateforme déclare 3,5 millions de contenus violents ou haineux supprimés au premier trimestre 2018 ainsi que 21 millions de contenus comprenant de la nudité adulte ou de la pornographie. Dans près de 86% des cas, ces images ont été détectées avant même d'avoir été signalées par des utilisateurs. "Ce sont ainsi 837 millions de contenus relatifs à des spams qui ont été supprimés, " dont près de 100 % ont été détectés et signalés avant que quiconque ne les signale", assure Facebook, qui indique également avoir désactivé " environ " 583 millions de faux comptes, dont la plupart ont été désactivés quelques minutes après leur inscription. Parfois avec trop de zèle, comme lorsque le réseau censure certaines œuvres d'art pourtant tolérées par ses règles, à l'image de " La liberté guidant le peuple " d'Eugène Delacroix.

Facebook peine en revanche à détecter les messages de haine. Facebook aurait ainsi désactivé 694 millions au quatrième trimestre 2017, et 583 millions de comptes au cours de ce premier trimestre. Sans compter les millions de tentatives quotidiennes de création de faux comptes.

Le groupe explique avoir du mal à repérer ces messages car l'intelligence artificielle peine encore à trier le bon grain de l'ivraie: des insultes racistes ou homophobes peuvent par exemple être "réappropriées" par les minorités qu'elles visent, ou relayées dans le but de les dénoncer, ce qui est normalement permis par la plateforme. Et seules les attaques contre les personnes sont interdites, pas celles visant une idéologie ou une institution. Mais il n'en a pas été de même pour les 2,5 millions de "discours de haine", qui ont été majoritairement (dans 62% des cas) identifiés par des humains.

D'autres rapports CampDesrEcrues

Discuter de cet article

SUIVRE NOTRE JOURNAL