Obtenez l'ultime pack de sécurité NordVPN à -63% !

Facebook a doublé les suppressions d’intimidation et de harcèlement depuis l’année dernière

Facebook a doublé les suppressions d'intimidation et de harcèlement depuis l'année dernière

Jeudi, Facebook a publié un nouveau rapport sur la transparence de la modération montrant une hausse marquée de la répression de l’intimidation et du harcèlement, qui a atteint un sommet de 6,3 millions de retraits totaux au cours du dernier trimestre de 2020. quatrième trimestre de 2019. La société a déclaré qu’une grande partie du changement était due à des améliorations des systèmes automatisés qui analysent les commentaires Facebook et Instagram.

Le dernier rapport sur la transparence de Facebook couvre d’octobre à décembre 2020, une période qui inclut l’élection présidentielle américaine. Pendant ce temps, le principal réseau Facebook a supprimé davantage de harcèlement, organisé des discours de haine et de haine, ainsi que du contenu sur le suicide et l’automutilation. Instagram a vu des sauts importants dans les renvois d’intimidation et d’automutilation. La société affirme que ses chiffres ont été façonnés par deux facteurs: une plus grande capacité d’examen humaine et des améliorations de l’intelligence artificielle, en particulier pour les publications non anglaises.

La société indique également qu’elle s’appuiera sur l’automatisation pour traiter une quantité croissante de vidéo et d’audio sur ses plates-formes, y compris un concurrent supposé de Clubhouse. «Nous investissons dans la technologie dans tous les types de partage des ressources», a déclaré le directeur technique Mike Schroepfer lors d’un appel avec des journalistes. « Nous comprenons l’audio, la vidéo, nous comprenons le contenu autour de ces choses, qui les a partagés et nous construisons une image plus large de ce qui se passe là-bas. » Facebook n’a pas confirmé l’existence d’une plate-forme audio de type Clubhouse, mais «je pense que nous faisons beaucoup de choses ici qui peuvent s’appliquer à ces différents formats, et nous regardons évidemment comment les produits évoluent et investissons avant ceux-ci. des changements pour nous assurer que nous disposons des outils technologiques dont nous avons besoin », a-t-il déclaré.

Facebook a repoussé certaines équipes de modération dans les bureaux début octobre; bien qu’il ait indiqué en novembre que la plupart des modérateurs travaillaient à distance, il est également indiqué que certains contenus sensibles ne peuvent pas être examinés de chez eux. Aujourd’hui, la société affirme qu’une plus grande modération a aidé Facebook et Instagram à supprimer davantage de messages sur le suicide et l’automutilation. Facebook a supprimé 2,5 millions de contenus violants, contre 1,3 million le trimestre précédent, et Instagram a supprimé 3,4 millions de contenus, contre 1,3 million. C’est comparable aux niveaux prépandémiques pour Facebook, et c’est une augmentation absolue significative pour Instagram.

À l’inverse, Facebook attribue certaines augmentations à la modération basée sur l’IA. Il a supprimé 6,3 millions de contenus d’intimidation et de harcèlement sur Facebook, par exemple, ce qui est presque le double des chiffres des trimestres précédents. Sur Instagram, il a supprimé 5 millions de contenus, contre 2,6 millions de pièces au dernier trimestre et 1,5 million de pièces à la fin de 2019. Ces augmentations proviennent d’une technologie qui analyse mieux les commentaires dans le cadre du post d’accompagnement.

La modération de la langue non anglaise a été un point faible historique pour Facebook, et la société affirme avoir amélioré la détection de la langue de l’IA en arabe, espagnol et portugais, alimentant une augmentation du retrait des discours de haine de 22,1 millions à 26,9 millions de pièces. Ce n’est pas aussi important que le saut que Facebook a vu à la fin de 2019, lorsqu’il a apporté ce qu’il a décrit comme des améliorations spectaculaires à sa détection automatisée.

Facebook affirme avoir modifié son fil d’actualité de manière à réduire la quantité de discours de haine et de contenu violent que les gens voient. Une enquête sur les discours de haine au troisième trimestre a révélé que les utilisateurs avaient en moyenne entre 10 et 11 éléments de discours de haine pour 10 000 éléments de contenu; au quatrième trimestre, ce chiffre est tombé à sept ou huit pièces. La société a déclaré qu’elle formulait toujours des réponses à certaines suggestions du conseil de surveillance de Facebook, qui a publié ses premières décisions le mois dernier.

Comme il l’a fait le trimestre dernier, Facebook a suggéré aux législateurs d’utiliser son rapport sur la transparence comme modèle pour un cadre juridique. Facebook a soutenu les modifications apportées à l’article 230 de la loi sur la décence des communications, un large bouclier de responsabilité qui a été critiqué par les critiques des médias sociaux. «Nous pensons que la réglementation serait une très bonne chose», a déclaré Monika Bickert, vice-présidente de la politique de contenu.

Cependant, Facebook n’a pas soutenu une proposition législative spécifique – y compris la SAFE TECH Act, un changement radical proposé au Congrès la semaine dernière. «Nous restons déterminés à entretenir ce dialogue avec tous ceux qui, aux États-Unis, travaillent à trouver une voie à suivre en matière de réglementation», a déclaré Bickert. «Nous avons manifestement vu un certain nombre de propositions dans ce domaine, et nous avons vu différents centres d’intérêt de différentes personnes sur la Colline en termes de ce qu’ils veulent poursuivre, et nous voulons nous assurer que nous faisons partie de toutes ces conversations. . »

Confidentialite - Conditions generales - Contact - Publicites - Plan du site - Sitemap