Trump a montré que Facebook, Twitter, YouTube ne peuvent pas modérer leurs plateformes. Nous avons besoin de changement

Il a fallu une insurrection alimentée par la foule, mais Mark Zuckerberg, PDG de Facebook, et Jack Dorsey, PDG de Twitter, ont finalement compris l’ampleur des dégâts et du mal que le président Donald Trump a fait en armant leurs influentes plateformes de médias sociaux, et ils lui ont interdit, de façon permanente sur Twitter et « indéfiniment » sur Facebook, de continuer à publier des mensonges incendiaires sur l’élection de 2020.

Mais il ne s’agit plus de Trump. Facebook et Twitter ont besoin d’un changement radical. Il est temps que les entreprises de médias sociaux laissent quelqu’un d’autre modérer leurs programmes.

Nouvelles règles

La raison pour laquelle Facebook, Twitter et toutes les autres sociétés de médias sociaux devraient verser des sommes inconfortablement élevées de leurs bénéfices à une organisation séparée pour contrôler leur contenu est qu’il est clair que tout le reste ne fonctionne pas.

Voici comment cela pourrait fonctionner : Une nouvelle organisation séparée – appelons-la NetMod (pour les modérateurs d’Internet) – qui serait séparée de toute motivation de profit. Elle ne fonctionnerait pas selon les caprices d’un PDG qui se respecte. Il s’agirait plutôt d’une organisation indépendante. Il aurait sa propre cour suprême, en quelque sorte, qui établirait les règles que la plupart des utilisateurs de médias sociaux doivent suivre, alors qu’ils débattent et décident de ce que devraient être les lois des médias sociaux.

Voici une première étape gratuite : « Tu n’encourageras pas une foule d’extrémistes violents à saccager le Capitole américain. »

La bonne nouvelle est que Facebook a déjà commencé avec l’aspect de la Cour suprême, qu’il appelle un « conseil de surveillance ». L’objectif de Facebook avec le conseil est d’offrir un moyen pour les utilisateurs de faire appel des décisions de modération avec lesquelles ils ne sont pas d’accord. Le conseil de 20 membres est composé d’anciens juges, avocats et journalistes. Jusqu’à présent, le conseil de surveillance a été aussi efficace que son nom est ennuyeux, mais c’est un début.

Les sociétés de médias sociaux ont également l’expérience de la collaboration quotidienne pour lutter contre les terroristes internationaux et l’exploitation des enfants. Ils sont plutôt bons dans ce domaine. NetMod est tout simplement l’étape suivante.

Les règles de fonctionnement de NetMod et la façon dont il modère le contenu devraient être documentées et partagées publiquement également. En dehors de l’affichage de leurs conditions de service, les entreprises technologiques partagent rarement leurs processus. Facebook et Twitter ont créé des sites web consacrés à la publication de publicités politiques sur leurs services, mais pas toutes les publicités. Hormis quelques documents de formation et notes internes ayant fait l’objet de fuites, nous en savons si peu sur le fonctionnement de ces équipes que nombre de leurs détracteurs ont également adhéré à des théories de conspiration à leur sujet.

Bien sûr, chaque réseau social est légèrement différent des autres, et ils devraient pouvoir avoir leurs propres règles pour leurs petits fiefs. Facebook insiste pour que les gens utilisent leur vrai nom, par exemple. Twitter fait vœu d’anonymat. NetMod n’affecterait pas cela. Il s’agit de fixer des normes de base pour un message ou un commentaire inacceptable.

Pensez à chaque réseau social comme à son propre état – ce qui ne devrait pas être trop difficile, étant donné que la base d’utilisateurs actifs de chacun éclipse la population de n’importe quel état des États-Unis. Chaque État a ses propres règles et façons de faire, mais les États doivent tous suivre les lois fédérales. Les réseaux sociaux et NetMod suivraient un modèle similaire.

Jack Dorsey témoignant devant le Congrès sur le harcèlement en ligne et les théories de conspiration.

A lire également

Faites-le

La prochaine étape consiste à inciter les entreprises à le faire. Zuckerberg et Dorsey ont tous deux fait une apparition au Capitole au cours des deux dernières années, disant qu’ils étaient favorables à une forme de législation pour aider à guider leurs entreprises.

M. Zuckerberg, en particulier, a déjà déclaré au Congrès qu’il pensait que la section 230 du Communications Decency Act devait être mise à jour. « Les gens veulent savoir que les entreprises prennent leurs responsabilités dans la lutte contre les contenus préjudiciables – en particulier les activités illégales – sur leurs plateformes », a-t-il déclaré lors d’une audition au Capitole en octobre dernier. « Ils veulent savoir que lorsque les plateformes suppriment du contenu, elles le font de manière équitable et transparente. Et ils veulent s’assurer que les plateformes sont tenues pour responsables ».

Le libre passage légal de l’article 230 est ce qui a permis à l’internet de prospérer. Selon les experts en cyberdroit, le modifier pour n’accorder une protection juridique aux réseaux sociaux que s’ils modèrent judicieusement leurs plateformes contribuerait à pousser les entreprises à assumer la responsabilité de ce qui se passe sur leurs sites.

Et NetMod serait une entité naturelle avec laquelle travailler pour définir quel type de modération significative des comportements inacceptables doit être, afin d’obtenir cette protection juridique.

Les médias sociaux font beaucoup de bien. Ils font aussi beaucoup de dégâts.

NetMod aurait également des retombées immédiates. Par exemple, les entreprises partageraient des renseignements, identifiant et agissant contre les terroristes, nationaux et étrangers, qui ont souvent des comptes sur plusieurs plateformes.

« Ces personnes utilisent un langage codé », a déclaré Brian Levin, directeur du Centre d’étude de la haine et de l’extrémisme de l’Université d’État de Californie, à San Bernardino. Il a suivi comment les mouvements qui ont vu le jour pour soutenir les appels de Trump à « libérer » les États du verrouillage des coronavirus en 2020 ont attiré les théoriciens du complot, les extrémistes et les propriétaires de petites entreprises craignant pour leur emploi.

« Beaucoup d’ours sont venus à ce miel », a déclaré M. Levin.

Tout ce changement ne se fera pas du jour au lendemain. NetMod ne peut pas rattraper plus de trois décennies de recrutement en ligne néo-nazi. Mais NetMod va au moins nous mettre tous sur la même longueur d’onde. Il créera une norme sur laquelle nous pourrons tous nous mettre d’accord. Ce peut être un début.

« Nous ne laissons pas les gens aller dans leur garage et créer du matériel nucléaire », a déclaré Danielle Citron, professeur de droit à l’Université de Virginie et auteur du livre « Hate Crimes in Cyberspace » de 2014. Elle est l’une des personnes qui souhaitent des changements à la section 230, en partie parce que les réseaux sociaux ont un grand potentiel pour faire du mal lorsqu’ils sont mal gérés.

Les médias sociaux ont bouleversé la politique, en particulier pendant le mandat de Trump.

NetMod pourrait même contribuer à inspirer plus d’innovation et de concurrence. Les jeunes pousses pourraient s’y joindre moyennant un tarif dégressif, ce qui leur donnerait un accès instantané à des experts et à des outils qu’elles auraient autrement passé des années à construire par elles-mêmes. Les petits réseaux sociaux comme Gab ou Parler, qui s’adressent souvent à des extrémistes lancés sur Twitter et Facebook, peuvent soit commencer à modérer de manière significative par eux-mêmes, soit rejoindre NetMod, soit choisir de s’exposer à des poursuites judiciaires pour ce que leurs utilisateurs font et disent.

La meilleure partie de la modification de l’article 230 et de la mise en œuvre de NetMod serait de savoir comment elle changerait les parties les plus sombres de l’internet. Il est de plus en plus évident que lorsque vous dissolvez un groupe haineux sur Facebook ou Reddit, il a plus de mal à acquérir la même influence sur d’autres alternatives, souvent moins modérées.

Je veux qu’il soit plus facile de les démanteler et plus difficile pour eux de trouver un nouveau foyer accueillant.

Mieux encore, ce plan signifierait que le prochain leader mondial qui agirait comme Trump n’aurait pas le traitement de l’enfant. Zuckerberg, sur Facebook, ou Dorsey, sur Twitter, n’auraient pas le choix de laisser cette personne faire ce qu’elle veut.

Au lieu de cela, le prochain leader mondial devrait faire face aux NetMods.

Prochaine lecture : Parler d’armes et de violence avant l’émeute du Capitole

Sources :

Articles populaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *