La modération sur les réseaux sociaux

Depuis plusieurs années, les plateformes des grands réseaux sociaux sont confrontées à de nombreux défis qui remettent en cause leur business model : partage de données utilisateurs avec des sociétés privées, fuites de données, pannes géantes, et bien entendu la modération des contenus illégaux déposés par les utilisateurs. Pour illustrer cela, Hubert Guillaud, contributeur à la Fondation internet nouvelle génération (FING), a publié une critique du récent livre Custodians of the Internet, de Tarleton Gillespie, l’occasion de traiter en largeur les grandes questions liées à la gestion des contenus sur les réseaux sociaux.
Qu’est-ce que la modération ?
La modération d’un réseau social, ou plus généralement de tout groupe de discussion, revient à gérer les publications et réactions d’un public-cible, à travers des règles écrites, des usages tacites ou des punitions en cas d’infraction. C’est une façon de prendre soin de sa communauté, même si cette tâche apparaîtra toujours bien imparfaite aux yeux de celle-ci : une erreur d’appréciation occulte vite les milliers de bons jugements effectués. Car plus qu’un travail communautaire, la modération est devenue avec le temps un service rendu.
Sur une plateforme comme Facebook ou Instagram, le travail de modération prend des proportions gigantesques : plus de 2 milliards d’utilisateurs, mais 100 millions de faux comptes, des dizaines de millions de photos téléchargées chaque jour, etc. Après l’attentat de Christchurch le 15 mars 2019, la vidéo tournée par l’auteur des faits a été supprimée plus de 1,5 million de fois en 24h. En moyenne, un modérateur de Facebook (qui en compte environ 5 000, souvent des sous-traitants) évalue environ 15 000 images par jour. Le travail de relecture est énorme et nécessite du temps, de l’argent et d’inévitables difficiles prises de décision. Bien que la loi énonce que l’utilisateur est responsable de ses propos sur Internet, la plate-forme qui les héberge se doit de modérer les échanges qui s’y tiennent, ne serait-ce que pour stabiliser les revenus publicitaires et éviter les scandales.
Les différentes techniques de modération
La principale technique de modération utilisée est le signalement par les utilisateurs eux-mêmes. Cela donne l’impression à la communauté d’être écoutée, quand bien même les demandes se comptent par centaines de milliers, que peu de retours sont faits et que les utilisateurs dans leur ensemble ont des valeurs à l’opposé les uns des autres. La modération par ce biais classe les contenus problématiques en grandes catégories, qui ne sont pas toutes prioritaires, montrant ainsi où est placé le curseur au sein du réseau social. Pour réguler les utilisateurs, des community managers se chargent aussi de valoriser la plateforme et de faire accepter les pratiques de cette modération en interne comme en externe.
Plus médiatisés, des outils de détection automatique traitent en masse les contenus téléchargés, afin de passer la modération à des échelles supérieures. Selon les sujets traités, leur efficacité est toute relative. Entraînés par des humains, les logiciels repèrent vite les imagesqui violent les conditions d’utilisation. Ces logiciels recherchent une forte proportion de la couleur de peau pour repérer la nudité, associent des métadonnées et hashtags pour comprendre le contexte, et étudient les comptes des utilisateurs pour mettre en valeur des comportements inadaptés. Selon Gillespie, le meilleur algorithme pour traquer la nudité affiche un score de succès à 94%, et Madbits, racheté par Twitter, détecte des images à risque avec un taux de réussite à 99%.
Malgré les scores élevés de ces logiciels, de nombreux faux positifs sont détectés qui nécessitent de constantes interventions manuelles, en particulier lorsque des questions de représentation humaine rentrent en jeu. Bien que l’objectif soit de bannir la pornographie des plateformes, ces logiciels repèrent en fait principalement la nudité, plus acceptée socialement, ce qui provoque de récurrentes controverses. Cette faiblesse s’explique en partie par les jeux de données utilisés pour l’apprentissage de l’outil (machine learning), pas assez diversifiés pour représenter toute la variété des représentations humaines.
En 2015, le photographe Olli Waldhauer publie sur Facebook une photo représentant une femme seins nus, avec un slogan raciste : le logiciel a supprimé la photo sous prétexte de nudité, sans repérer le texte haineux. Cela montre la grande difficulté des logiciels à comprendre des textes porteurs de significations ambivalentes. La technique consistant à mettre des filtres sur les mots s’est également révélée inefficace, devant l’imagination des utilisateurs à inventer de nouveaux langages écrits (emojis, fautes d’orthographe, métaphores) pour contourner la censure.
Comment améliorer la modération ?
The Guardian a publié en 2017 les Facebook Files, qui montrent toutes les difficultés d’interprétation des situations, non seulement pour la machine mais aussi pour les humains (parfois surnommés les « éboueurs du Net »). Un jeu sur leur site permet de se rendre compte de toute la complexité de l’exercice. Les nouveaux modes de contournement de la modération sont avant tout le problème principal posé aux plateformes des réseaux sociaux. Les logiciels automatisés ne parviennent pas à s’adapter, et les humains doivent constamment reparamétrer les critères de détection. Pour cette raison, une véritable opacité règne dans les procédures de modération : donner des règles précises, c’est inciter les utilisateurs à les contourner constamment, ce qui mène à la constante redéfinition de nouvelles règles.
Quelles solutions sont à envisager pour améliorer drastiquement la qualité de la modération sur Internet ? Les réseaux sociaux cherchent toujours à ouvrir les discussions et échanges au plus grand nombre, sans tomber dans la stratégie facile d’enfermer les utilisateurs dans des bulles de filtres, où les contenus paraîtront moins offensants. Tarleton Gillespie propose plusieurs pistes : augmenter le nombre et la diversité culturelle des modérateurs humains, améliorer les logiciels, apporter plus de transparence aux choix faits, et surtout associer profondément les utilisateurs des réseaux sociaux à leur nettoyage et à leur gouvernance.