Le guide ultime de la modération de contenu

Sur Internet, la grande partie du meilleur contenu que l’on trouve est généré par les utilisateurs.

Il en est de même pour le pire contenu.

Si le contenu généré par les utilisateurs (UGC) est essentiel pour votre plateforme en ligne, la modération de contenu est primordiale pour créer des expériences sûres et sécurisantes, et elle est déterminante pour développer votre base d’utilisateurs.

Ce guide vous aidera à évaluer la meilleure approche en matière de modération de contenu pour votre plateforme. Il vous apportera des réponses aux questions fondamentales que vous vous posez et vous renverra à des explications plus détaillées.

Commençons.

Table des matières :

  1. Qu’est-ce que la modération de contenu ?
    • Comment les plateformes gèrent-elles la modération de contenu ?
  2. Pourquoi la modération de contenu est-elle importante ?
    • Pourquoi la modération de contenu est-elle si compliquée ?
    • De quelle manière le métavers va-t-il faire évoluer la modération de contenu ?
  3. Qu’est-ce que Trust & Safety ?
    • À quel point vos pratiques en matière de confiance et de sécurité doivent-elles être transparentes ?
  4. Quels sont les principaux types de modération de contenu ?
    • Pré-modération
    • Post-modération
    • Modération réactive
    • Modération distribuée
  5. Qu’est-ce que la modération automatique ?
    • Pourquoi utiliser la modération automatique de contenu ?
  6. Qu’est-ce que la modération humaine ?
    • Comment recruter, former et gérer vos modérateurs de contenu  ?
  7. De quels outils de modération de contenu les modérateurs ont-ils besoin ?
  8. Devriez-vous externaliser votre modération de contenu ?

 

Qu’est-ce que la modération de contenu ?

La modération de contenu est le contrôle et le filtrage du contenu généré par les utilisateurs sur les plateformes en ligne. L’objectif de la modération de contenu est de déterminer si ce contenu est conforme aux règles et directives spécifiques de la plateforme, et de le supprimer si ce n’est pas le cas.

Aujourd’hui, toutes les plateformes en ligne reposent sur du contenu généré par les utilisateurs. Les plateformes de médias sociaux, les places de marché en ligne, les applications d’économie collaborative, les sites de rencontre, les communautés, les forums et les salons de discussion en sont des exemples.

Le contenu téléchargé sur ces plateformes peut être source de problèmes de toutes sortes. Il peut être offensant, obscène, illégal, dérangeant, frauduleux, trompeur ou simplement (sous la forme d’un spam) sans intérêt et agaçant.

Parmi les exemples de contenus problématiques, citons les discours haineux, le trolling, le flaming, le spamming, les contenus graphiques (représentant des abus sexuels, de la maltraitance envers les enfants et d’autres actes violents ou choquants), la propagande, la désinformation et les contenus contenant des liens frauduleux.

En tant que plateforme en ligne, vous devez être en mesure d’identifier rapidement ce type de contenu avant qu’il ne nuise à vos utilisateurs et à la réputation de votre plateforme.

Une fois le contenu identifié, vous pouvez choisir de le supprimer, de l’accompagner d’un avertissement ou de permettre aux utilisateurs de votre plateforme de le bloquer ou de le filtrer eux-mêmes.

Comment les plateformes gèrent-elles la modération de contenu ?

En fonction de la taille de votre base d’utilisateurs, vous mènerez à bien ce processus de filtrage et de modération en combinant des outils algorithmiques d’intelligence artificielle, des rapports d’utilisateurs et un contrôle humain.

Mais peu importe la manière dont vous vous y prendrez, sachez que ce ne sera pas de tout repos.

La modération du contenu est déjà un enjeu de taille pour les plateformes en ligne (et plus la plateforme est grande, plus le défi à relever est important) et l’émergence du métavers va encore incroyablement accentuer ce défi.

Mais aussi décourageant que cela puisse paraître, la modération du contenu est totalement inévitable pour la plupart des plateformes en ligne. Voici pourquoi…

 

Pourquoi la modération de contenu est-elle importante ?

Le contenu généré par les utilisateurs est essentiel.

Il aide les marques à faire preuve d’authenticité, à établir la fidélité à la marque et à développer des communautés ; il agit comme une marque de confiance et il contribue à augmenter les conversions et à influencer les décisions d’achat. Pour des plateformes comme YouTube et Reddit, le contenu généré pas les utilisateurs est la principale ou l’unique attraction pour les visiteurs.

Mais tout ce contenu de grande valeur généré par les utilisateurs a un prix.

Pour les utilisateurs, la modération du contenu est importante car elle les protège contre la consultation accidentelle de contenus dérangeants, trompeurs, provocateurs ou dangereux.

Du point de vue des plateformes, la modération de contenu remplit un certain nombre de fonctions éthiques et commerciales essentielles :

  • Protéger vos utilisateurs et la communauté au sens large contre les dangers. Chacun connaît les graves répercussions que la désinformation et les contenus haineux peuvent avoir sur le monde.
  • Protéger la réputation de votre plateforme. Si votre plateforme n’est pas un lieu convivial ou digne de confiance, les clients iront rapidement voir ailleurs (et ne reviendront pas).
  • Protéger l’identité de votre marque. Quelle sera l’image de votre marque si votre plateforme héberge (même involontairement) du contenu offensant ? Rien de positif n’en ressortira. Les clients s’attendent à ce que vous vous en occupiez rapidement, tout comme les annonceurs qui ne veulent pas que leurs produits soient associés à ces contenus.

Pourquoi la modération de contenu est-elle si compliquée ?

Non seulement vous devez prendre des décisions pour que votre plateforme reste irréprochable tout en évitant de donner l’impression de censurer ou de faire preuve de partialité, mais vous devez également prendre ces décisions très rapidement, et à une échelle souvent considérable.

Bien que Facebook représente un cas extrême en ce qui concerne la quantité de contenu généré par les utilisateurs, c’est un bon exemple pour illustrer l’ampleur du défi à relever.

Facebook emploie au moins 15 000 modérateurs de contenu (dont la plupart sont externalisés) pour passer en revue les messages, les photos et les vidéos qui ont été signalés par l’intelligence artificielle ou par les utilisateurs. Et ces 15 000 modérateurs doivent modérer environ 3 millions de messages par jour.

Au cours du premier trimestre 2020, Facebook a supprimé 39,5 millions de contenus comportant des scènes de nudité adulte ou d’activité sexuelle, 25,5 millions de contenus violents ou explicites, et 11 millions de contenus liés au terrorisme et à la haine organisée.

À moins que vous ne travailliez pour Twitter ou TikTok, il est peu probable que vous ayez affaire à de tels chiffres. Mais vos chiffres seront sans doute suffisamment importants pour vous poser des problèmes.

De quelle manière le métavers va-t-il faire évoluer la modération de contenu ?

Le contenu généré par les utilisateurs change radicalement avec l’émergence du métavers et cette évolution entraîne une toute nouvelle série de défis pour les modérateurs de contenu.

Nombreux sont ceux qui prédisent que le métavers nous fera passer d’un modèle Web 2.0, dans lequel les plateformes régissent le contenu des utilisateurs du haut vers le bas, à un modèle Web 3.0, où le contenu des utilisateurs est diffusé entre pairs.

Si l’avenir leur donne raison, il sera beaucoup plus difficile de modérer le comportement des utilisateurs.

De plus, dans le métavers, la modération de contenu se transformera également en modération de comportement. Dans le métavers, les utilisateurs adoptent une forme physique et virtuelle grâce à des avatars numériques. Ils peuvent alors se livrer à des actes offensifs ou malveillants, comme des attouchements ou du harcèlement, et ce en temps réel.

Pour les modèles d’IA, il est plus difficile de détecter des actions physiques comme celles-ci. Ces actions sont souvent plus subtiles que les mots, et l’IA n’a pas encore reçu autant de données qu’avec le langage.

Et comme le métavers prendra pour beaucoup la forme d’une réalité virtuelle, les utilisateurs victimes de harcèlement ou d’abus en feront l’expérience de manière plus viscérale que dans un environnement informatique ou de jeu traditionnel.

Modérer le métavers représente donc un défi de taille : Andrew Bosworth, l’actuel CTO de Meta, a déclaré que c’était « pratiquement impossible ».

Néanmoins, compte tenu des enjeux économiques (McKinsey estime que le métavers a le potentiel de générer jusqu’à 5 000 milliards de dollars d’ici à 2030), il s’agit d’un défi que l’on ne peut pas ignorer.

En bref, la modération de contenu est cruciale et très complexe (et appelée à le devenir encore plus).

La bonne nouvelle, c’est qu’il existe des stratégies et des technologies pour aider votre entreprise à relever ces défis. Nous allons revenir sur chacun d’entre eux, en commençant par le Trust and Safety.

 

Qu’est-ce que le Trust and Safety ?

Le Trust & Safety (confiance et sécurité en français) fournit un cadre au travail de modération de contenu.

Les principes du Trust and Safety , généralement définis, mis à jour et entérinés par une équipe dédiée, aident les plateformes en ligne à réduire le risque que leurs utilisateurs soient exposés à des préjudices (qu’il s’agisse de fraude pure et simple ou de préjudices liés à la violation des directives de la communauté par d’autres utilisateurs).

C’est la partie « safety », ou sécurité en français. La partie « Trust », ou confiance, intervient dans la création d’une culture d’attention, de protection et d’expériences positives au sein des plateformes et des services d’une entreprise.

Pour obtenir des conseils sur la mise en place et la gestion de votre équipe et de votre cadre de Trust & Safety, lisez notre article sur le Trust and Safety.

À quel point les politiques de Trust and Safety doivent-elle être transparentes ?

Ces dernières années, de nombreuses entreprises, notamment les réseaux sociaux comme Facebook et Twitter, ont été fortement critiquées pour leur manque de transparence en matière de modération de contenu et, de ce fait, ont perdu la confiance des utilisateurs.

Les utilisateurs de ces plateformes ont été déroutés, perturbés et irrités par la définition floue des contenus autorisés, par les décision de modération peu claires, et par la suppression automatique de publications qui semblaient respecter les règles.

Pour que vos utilisateurs ne perdent pas confiance en votre plateforme, vous devez rendre la modération de contenu aussi transparente que possible.

Pour ce faire, vous pouvez réexaminer régulièrement votre politique de modération, et rendre publiques les mesures que vous décidez de prendre. Vous pouvez également publier un ensemble de règles d’utilisation pour votre communauté en ligne, ainsi qu’une charte de modération auxquels les utilisateurs de la plateforme et les employés peuvent se référer.

Voici quelques conseils pour mettre en place ces règles :

  • Vos attentes et vos règles doivent être claires, exhaustives et accessibles à tous, y compris aux utilisateurs et à toutes les personnes impliquées dans la modération de contenu au sein de l’entreprise, des modérateurs humains aux data scientists qui développent des algorithmes de modération
  • Pensez à inclure une déclaration d’intention précise, avec des exemples de bons et de mauvais comportements, ainsi qu’une procédure claire de signalement des mauvais comportements
  • Pour éviter toute ambiguïté ou tout malentendu, vous devez couvrir toutes les langues parlées par les utilisateurs de votre plateforme et prendre en compte les différences de cultures et d’emplacement géographique.

 

Quels sont les principaux types de modération de contenu ?

Il existe quatre types principaux de modération de contenu. Chaque type de modération présente ses propres avantages et risques, et convient à un type de plateformes précis.

La pré-modération

Les contenus soumis par les utilisateurs sont placés dans la file d’attente d’un modérateur avant d’être approuvés et rendus visibles sur la plateforme (ou refusés et bloqués).

Cette méthode offre aux plateformes un degré élevé de contrôle sur ce qui apparaît sur leur site, ce qui la rend bien adaptée aux plateformes présentant un degré élevé de risque juridique.

Elle peut en revanche être problématique, car elle ralentit le processus de publication du contenu. Cela peut s’avérer particulièrement pénalisant pour les plateformes dont les utilisateurs aiment partager du contenu de manière rapide et interactive.

Comme cette méthode fait appel à des modérateurs humains pour approuver tout le contenu, elle est coûteuse et difficile à développer. Si votre communauté dépasse un certain nombre, vos modérateurs ne seront plus en mesure de suivre le rythme et votre plateforme risque d’être saturée.

La post-modération

Le contenu soumis par les utilisateurs est aussitôt affiché publiquement sur la plateforme, et placé dans une file d’attente pour que les modérateurs l’approuvent ou le suppriment.

À l’ère de la connexion internet à haut débit, les utilisateurs veulent recevoir du contenu instantané. La post-modération leur offre cela, et a l’avantage de ne pas entraver les communautés virtuelles qui évoluent rapidement.

Cette méthode revêt cependant certains problèmes : comme elle dépend de modérateurs humains, la post-modération peut devenir excessivement coûteuse à mesure que les communautés s’agrandissent. Et comme le contenu est publié sans vérification préalable, la responsabilité juridique de l’hébergement de ce contenu peut incomber à la plateforme.

La modération réactive

Cette méthode fait appel aux membres de la communauté pour signaler les contenus qui enfreignent les règles de la plateforme ou qui sont indésirables. Pour cela, les plateformes proposent généralement un bouton de signalement pour chaque contenu généré par les utilisateurs.

La modération réactive peut servir de filet de sécurité pour soutenir les méthodes de pré-modération ou de post-modération. Elle peut également être utilisée comme méthode de modération unique.

L’avantage de cette méthode est qu’elle s’adapte à l’accroissement de votre communauté et, en théorie du moins, vous dégage de toute responsabilité liée à la publication de contenu sensible.

Mais permettre à certains types de contenu de rester sur votre site, quelle que soit la durée, comporte évidemment des risques importants. Vous ne vous considérez peut-être pas comme responsable de ce contenu, mais votre réputation pourrait en être impactée.

La modération distribuée

Dans cette méthode qui se veut démocratique, la responsabilité de la modération de chaque contenu est répartie entre un certain nombre de personnes.

Par exemple, une plateforme peut disposer d’un système d’évaluation qui permet (et oblige) les membres à voter pour déterminer si un contenu généré par l’utilisateur respecte les directives de la plateforme.

Cette responsabilité peut également être confiée aux employés de la plateforme, qui évalueront la décence des publications et utiliseront une note moyenne pour déterminer si elles doivent être examinées ou non.

Comme la plupart des plateformes ne font pas confiance aux communautés pour s’auto-modérer, et que le vote des employés peut provoquer des conflits internes, la modération distribuée est rarement utilisée.

Aucune de ces méthodes n’est parfaite, et toutes sont confrontées au même défi principal : trouver un équilibre entre le besoin de réactivité (crucial à une époque où le temps d’attention est de plus en plus court) et la concurrence de masse, d’une part, et la protection des utilisateurs et des plateformes contre les contenus préjudiciables, d’autre part.

C’est pour résoudre ce problème que la modération automatique de contenu intervient.

 

Qu’est-ce que la modération automatique de contenu ?

La modération automatique de contenu est réalisée par des modèles d’intelligence artificielle (IA) et de machine learning (ML).

Idéalement, ces modèles sont élaborés à partir de données spécifiques à la plateforme, et plus ces données sont spécifiques, plus vous pouvez espérer obtenir une modération précise.

Pourquoi utiliser la modération automatique de contenu ?

En théorie, la modération automatique de contenu n’offre que des avantages. Les utilisateurs peuvent soumettre des contenus qui sont mis en ligne presque instantanément, tandis que la communauté et la plateforme sont généralement protégées contre les contenus sensibles.

Bien entendu, la modération automatique de contenu n’est pas parfaite et présente ses propres limites.

Vous pouvez en savoir plus sur les avantages et inconvénients de la modération automatique en lisant notre article sur la modération automatique de contenu.

Mais pour aller droit au but : malgré ses capacités d’adaptation et son efficacité impressionnantes, l’IA est loin d’être l’outil idéal pour la modération de contenu. Son utilisation exclusive risque de provoquer des erreurs et une atteinte à la réputation de l’entreprise.

Dans les années à venir, la modération de contenu doit continuer à s’appuyer sur un certain degré de modération humaine.

 

Qu’est-ce que la modération humaine de contenu ?

Pour filtrer les contenus potentiellement problématiques, la modération humaine conserve l’avantage sur les machines.

Les capacités empathiques de l’humain, avec toute la diversité et la complexité des émotions que cela implique, leur permettent de détecter les nuances subtiles liées au contexte dans le contenu généré par les utilisateurs (ce que les meilleurs algorithmes actuels ne parviennent pas à faire). Ils peuvent également comprendre des références culturelles qui échapperaient totalement à l’IA la plus intelligente.

Il faut également tenir compte de la perception de vos utilisateurs. Beaucoup d’entre nous se méfient encore de l’IA.

La présence de modérateurs humains avec lesquels vos utilisateurs peuvent interagir les aide à se sentir plus proches de votre plateforme, souvent au moment où ils sont le plus susceptibles de se retourner contre vous , à savoir lorsque quelque chose qu’ils ont posté a été supprimé ou censuré.

Comment recruter, former, gérer et protéger les modérateurs ?

La modération de contenu est un travail stressant, qui comporte de grandes responsabilités. Les modérateurs doivent être soigneusement sélectionnés, formés et managés.

Pour obtenir des conseils sur la constitution d’une équipe de modération de contenu efficace, lisez notre article : Comment structurer et gérer une équipe de modérateurs de contenu.

Ils doivent, eux aussi, être protégés. Le travail d’un modérateur de contenu peut être mentalement et émotionnellement éprouvant, et trop souvent traumatisant.

Vous pouvez protéger vos modérateurs de toutes sortes de façons, en vous appuyant sur les sciences comportementales.

Pour en savoir plus, consultez notre article Protéger la santé mentale de vos modérateurs de contenu.

Au-delà de la gestion de votre équipe, vous devez également penser à la doter d’une série d’outils de modération de contenu.

De quels outils les modérateurs ont-ils besoin ?

Votre équipe peut utiliser des outils de modération de contenu automatiques pour filtrer le contenu généré par les utilisateurs et signaler le contenu qui est potentiellement sensible, et notamment :

  • La vision par ordinateur : elle utilise la reconnaissance d’objets pour filtrer les images, y compris les vidéos téléchargées et diffusées en direct, afin de détecter les contenus problématiques tels que la nudité, l’automutilation, le sang, l’alcool et les drogues, les armes, les gestes obscènes et les comportements inappropriés selon les cultures. Elle analyse également le texte contenu dans les images.
  • Les algorithmes audio : ils sont nécessaires pour détecter les éléments audio inappropriés dans les vidéos. À l’aide de modèles de conversion, ils transcrivent les données audio en texte lisible qui peut ensuite être analysé par les modérateurs.
  • Le traitement du langage naturel (NLP) : cet outil analyse et modère les textes pour en extraire les contenus problématiques. Les algorithmes NLP se perfectionnent de plus en plus et peuvent déjà identifier le sens, la charge émotionnelle et même le ton d’un texte.

Lorsqu’il s’agit de modérer un contenu ouvertement inacceptable, votre équipe peut déployer des filtres de contenu automatisés :

  • Les filtres de mots pour filtrer, exclure et remplacer les mots interdits, ou bloquer complètement les messages contenant ces mots
  • Une liste d’adresses IP interdites pour éviter les récidives (particulièrement utile dans le cas des spammeurs)

Et pour traiter les demandes de renseignements courantes :

  • L’IA conversationnelle : pour dialoguer avec vos clients à grande échelle, en confiant néanmoins les questions les plus complexes à vos modérateurs de contenu humains

Comme vous pouvez le constater, disposer d’une équipe interne de modération de contenu (en plus de devoir la former, la gérer et la protéger) vous obligera à mettre en place et à gérer une série d’outils.

Les efforts et les coûts que cela implique peuvent vous mener à envisager d’externaliser la modération de votre contenu. Mais est-ce la bonne décision ?

 

De quels outils les modérateurs ont-ils besoin ?

Compte tenu de l’ampleur de la tâche de modération de contenu, et de la quantité élevée de formation et d’attention dont les modérateurs ont besoin, rien d’étonnant à ce que de nombreuses plateformes en ligne préfèrent confier la modération de contenu à un prestataire de service externe.

En fonction de facteurs tels que la taille et la portée géographique de votre entreprise, l’externalisation peut être la solution idéale. Le fait de disposer d’une équipe interne de modération de contenu vous permet de contrôler plus directement le processus de modération et facilite la communication instantanée entre vous et vos modérateurs.

En revanche, une équipe interne peut également coûter beaucoup plus cher à recruter et à entretenir : outre le coût de la création d’une nouvelle structure, le financement du recrutement et le paiement des salaires, vous devrez également vous acquitter des frais généraux, des avantages sociaux et de la formation des membres de votre équipe. (Une équipe externalisée aura quant à elle reçue la formation nécessaire d’entrée de jeu.)

De plus, si vous devez modérer le contenu dans différentes régions et langues, un prestataire externe peut vous permettre d’être rapidement opérationnel dans certaines régions. Il peut également veiller à ce que vos équipes de modération de contenu soient disponibles 24 h/24 et 7 j/7.

Lisez notre article Externaliser la modération de contenu pour découvrir une analyse plus détaillée des avantages et des risques de l’externalisation, ainsi que des conseils sur les éléments à prendre en compte lors de la sélection d’une entreprise à laquelle confier la modération de votre contenu.

 

Devriez-vous externaliser votre modération de contenu ?

Voilà.

Nous vous avons donné un aperçu général de tout ce que vous devez savoir sur la modération de contenu. N’oubliez pas de consulter nos articles plus détaillés pour découvrir une foule d’informations et de bonnes pratiques.

Si vous pensez que votre entreprise a besoin d’un coup de pouce en matière de modération de contenu, n’hésitez pas à nous contacter.

Nos processus robustes et nos technologies internes efficaces nous permettent d’adapter nos capacités de modération à la demande.
Notre solution de modération de contenu allie une automatisation sur mesure, une modération de contenu humaine renforcée et un suivi en temps réel afin d’optimiser intégralement l’expérience utilisateur sur votre plateforme.
Notre équipe d’experts en modération de contenu modère chaque année 1 milliard de contenus dans plus de 25 langues. Grâce à la grande flexibilité de nos opérations, ils sont disponibles 24 h/24 et 7 j/7. Vous pouvez avoir confiance en nos équipes : nous prenons des mesures rigoureuses pour protéger leur santé mentale.

Ça vous parle ?

Nous contacter