Près d'un milliard de contenus supprimés par Facebook au 1er trimestre

Nous voyons l'application Facebook sur un téléphone mobile. L'utilisateur a reçu 26 demandes d'amitié et 3 messages privés

Demandes d'amitié sur Facebook

Le groupe a joué la carte de la transparence, ce mardi, sur le contrôle de l'ensemble de ses contenus. Une responsable de l'entreprise a présenté ces données à Paris.

Un bond lié principalement, selon le réseau, à une amélioration de ses technologies d'analyse, qui font de plus en plus appel à l'intelligence artificielle.

La prolifération d'images violentes n'est pas en reste, non plus. La plateforme déclare 3,5 millions de contenus violents ou haineux supprimés au premier trimestre 2018 ainsi que 21 millions de contenus comprenant de la nudité adulte ou de la pornographie.

Il s'agit notamment d'images pédopornographiques, de pornographie pour se venger, de messages suicidaires, d'intimidation, de harcèlement, d'atteinte à la vie privée et de violation du droit d'auteur. Cela représente moins de 0,1% des contenus visionnés, et dans près de 96% des cas les images sont supprimées avant tout signalement.

Parfois avec trop de zèle, comme lorsque le réseau censure certaines oeuvres d'art pourtant tolérées par ses règles, à l'image de "La liberté guidant le peuple" de Delacroix.

En outre, au premier trimestre, 583 millions de faux comptes ont été désactivés, dont la plupart ont été désactivés quelques minutes après leur inscription. Une situation qui s'ajoute "aux millions de tentatives de création de faux comptes" déjouées quotidiennement par le réseau.

583 millions de faux comptes détruits en 3 mois Facebook met en avant sa propre efficacité à détecter ces contenus inappropriés: pratiquement 100 % des spams ont été retirés avant qu'un usager ne les repère.

Facebook a déclaré qu'il avait pris des mesures de modération contre près de 1,5 milliard de comptes et de messages qui violaient les règles de sa communauté durant la même période. Par comparaison, Facebook dit avoir supprimé 2,5 millions de contenus comportant des discours haineux au premier trimestre 2018, dont 38% ont été signalés par sa seule technologie.

Le groupe explique avoir du mal à gérer ces messages car l'intelligence artificielle peine encore à trier le bon grain de l'ivraie: des insultes racistes ou homophobes peuvent par exemple être "réappropriées" par les minorités qu'elles visent, ou dans le but de les dénoncer, ce qui est normalement permis par la plateforme.

Facebook a précisé, par ailleurs que le groupe, comme il s'y était engagé l'an dernier, avait recruté 3 000 personnes supplémentaires pour contrôler les contenus litigieux.

Monika Bickert, Directrice de la politique de contenus de Facebook, a fait part du bilan de modération avec des chiffres impressionnants.

Dernières nouvelles