Selon le Forum économique mondial, d’ici 2025, nous créerons plus de 400 milliards de gigaoctets de données chaque jour (cela équivaut à plus de 212 millions de DVD, si vous permettez cette comparaison rétro).
Il existe donc une quantité impressionnante de contenu généré par les utilisateurs (contenu UGC).
Une partie de ce contenu sera d’une manière ou d’une autre préjudiciable aux autres utilisateurs. La seule façon de distinguer ce qui est inoffensif de ce qui est dangereux est la modération : elle s’accompagne généralement d’un certain niveau de supervision humaine.
Les modérateurs de contenu humains travaillent généralement en tandem avec des outils de modération automatique. Ce sont les premiers intervenants du digital qui rendent le monde en ligne plus sûr pour nous tous, en particulier pour ceux d’entre nous qui gèrent des plateformes
en ligne.
Cet article explore tout ce que vous devez savoir sur le recours à des modérateurs humains pour assurer la sécurité de votre plateforme, de ses utilisateurs et de la réputation de votre marque dans un environnement en ligne risqué.
Sommaire :
- Qui est concerné par la modération de contenu ?
- Le rôle et les responsabilités des modérateurs humains
- Les 4 principaux types de modération de contenu
- La modération humaine VS l’automatisation
- Créer une équipe de modérateurs de contenu
- Externaliser la modération de contenu
Qui a besoin de modération humaine de contenu ?
Les principales plateformes comme Facebook, TikTok ou YouTube ne sont pas les seules à avoir besoin d’une modération des contenus UGC. Toute entreprise qui héberge du contenu en ligne (qu’il s’agisse d’Airbnb, de Tinder, d’un journal, d’un site d’évaluation, d’une boutique en ligne ou même d’un blog B2B avec des commentaires activés) a besoin de modération de contenu.
En d’autres termes, toute entreprise ayant une présence sur les médias sociaux, un forum en ligne ou un espace dans le métavers.
La modération de contenu est le prix à payer pour proposer du contenu généré par les utilisateurs. Et ça en vaut la peine. Le contenu UGC offre un vaste éventail de perspectives commerciales. L’avis de la société peut augmenter les conversions et influencer les décisions d’achat. Près de 80 % des personnes interrogées affirment que le contenu UGC a un impact sur leur décision d’achat. Il peut également favoriser la fidélité et l’authenticité de la marque.
Mais le contenu UGC expose également les entreprises aux risques liés au comportement d’individus malveillants. Si le contenu est abondant, il est inévitable qu’une partie soit dérangeante, trompeuse, malveillante, provocatrice ou même dangereuse (comme dans le cas du « doxxing », lorsque des utilisateurs publient les adresses privées de personnes qu’ils considèrent comme des ennemis et encouragent d’autres personnes à leur faire du mal).
Ce type de contenu peut nuire à votre réputation, repousser les utilisateurs et affecter les revenus issus des publicités. Des modérateurs de contenu sont donc nécessaires pour protéger vos utilisateurs et votre marque.
Pour un aperçu plus complet des défis liés à la modération de vos contenus UGC et des avantages qui découlent d’une bonne modération, consultez notre Guide ultime de la modération de contenu.
Le rôle et les responsabilités des modérateurs humains
Les modérateurs de contenu examinent toutes les formes d’UGC sur toutes les plateformes. Leur objectif est de veiller à ce que seuls les contenus conformes aux règles de la plateforme et aux directives réglementaires soient publiés.
Les types de contenu inapproprié peuvent inclure les discours haineux, le trolling, le flaming, le spam, le contenu explicite présentant des abus sexuels, de la maltraitance envers les enfants et d’autres actes violents ou dérangeants, la propagande, la désinformation et les liens frauduleux.
Forcément, le fait de « lutter contre les méchants » du rôle attire beaucoup d’attention. Toutefois, l’impact commercial positif du travail des modérateurs de contenu est tout aussi important.
Une modération de contenu efficace permet de créer des communautés virtuelles dynamiques au sein desquelles les gens se sentent en sécurité pour interagir et effectuer des transactions. Un bon contenu UGC est essentiel d’un point de vue commercial, car il est synonyme d’authenticité et de confiance, en particulier pour les marques qui cherchent à attirer un public plus jeune.
Avec l’avènement du métavers, la modération humaine de contenu se trouve à un tournant. Si la modération de contenu restera toujours essentielle, on évolue petit à petit vers la modération du comportement, ou la supervision des interactions en temps réel entre les utilisateurs dans un environnement de réalité virtuelle.
Les 4 principaux types de modération humaine
Il existe quatre grands types de modération de contenu, chacun ayant ses propres forces et faiblesses.
1. La pré-modération
Des modérateurs humains examinent le contenu généré par les utilisateurs (souvent signalé par des systèmes automatiques) afin de déterminer si ce contenu peut être publié ou s’il doit être signalé ou bloqué avant d’être montré aux utilisateurs.
Cette approche offre un niveau élevé de contrôle sur le contenu, mais risque également de créer une file d’attente de contenu lorsque les équipes de modération ne peuvent pas faire face aux pics d’envoi.
2. La post-modération
Le contenu est affiché sur la plateforme en temps réel, mais il est également placé dans une file d’attente afin d’être modéré. Cela évite la saturation de contenu et les perturbations dans les conversations, mais entraîne des risques juridiques, éthiques et commerciaux, puisque des contenus inappropriés, voire illégaux, peuvent être consultés avant que vous ne les supprimiez.
Certaines grandes plateformes de contenu, comme Facebook, ont ajouté des éléments de proactivité à la post-modération, par exemple en bannissant ou en bloquant les utilisateurs qui publient du contenu ne répondant pas aux normes de la communauté de la plateforme et en suivant leurs comportements sur le site.
3. La modération en temps réel
La modération doit parfois se faire en temps réel, comme pour certaines vidéos en streaming. Dans ce cas, les modérateurs contrôlent tout ou partie du contenu et le suppriment en cas de problème.
Dans certains cas, les modérateurs vérifient ponctuellement le contenu ou visionnent uniquement les premières minutes pour s’assurer que tout est en ordre.
Le métavers présente un nouveau cas d’utilisation intéressant : modérer les interactions entre les personnes en temps réel. Ce type de modération demande plus de travail, mais est essentiel pour que les expériences en ligne soient sûres pour les utilisateurs (en particulier dans le cas d’une expérience de réalité virtuelle proche et personnelle).
4. La modération réactive
Vous vous rappelez du bouton « Signaler » présent sur certaines plateformes sur lesquelles les utilisateurs publient du contenu ? Voilà à quoi ressemble la modération réactive.
La modération réactive s’appuie sur les membres de la communauté en ligne pour signaler les contenus indésirables qui vont à l’encontre des règles de la plateforme. C’est un filet de sécurité utile pour la pré-modération ou la post-modération, qui fournit à l’équipe de modération du contenu une multitude d’assistants sur vos plateformes.
Ce système est toutefois susceptible d’être utilisé de manière abusive. Si un utilisateur souhaite cibler un autre utilisateur, il peut signaler tout ce qu’il publie et le soumettre à la modération. Certains utilisateurs peuvent même utiliser ce système pour cibler vos modérateurs de contenu, en signalant des contenus inoffensifs dans le seul but de leur faire perdre du temps.
5. La modération distribuée
La modération distribuée confie à un grand nombre de personnes (d’autres membres de la communauté ou des employés de la plateforme) la responsabilité d’examiner minutieusement chaque contenu généré par les utilisateurs.
Il s’agit d’une approche démocratique mais rarement utilisée. La plupart des entreprises recherchent des niveaux de contrôle du contenu plus élevés que ne le permet la modération par les utilisateurs, et les sondages d’entreprise risquent de provoquer des divisions et des désaccords internes.
Modération humaine VS modération automatique
En raison du volume important de contenus UGC qu’elles doivent traiter, de nombreuses plateformes utilisent des outils d’IA et de machine learning (ML) pour aider leurs modérateurs de contenu humains. Certaines plateformes ont même complètement supprimé la dimension humaine.
Il est risqué de s’en remettre entièrement à la modération humaine ou automatique du contenu, car les approches automatiques et humaines ont toutes deux leurs points forts et leurs faiblesses.
Découvrons-les plus en détail…
La modération humaine de contenu
Les avantages
- Les humains ont une bien meilleure capacité à interpréter les nuances de l’utilisation du contenu qu’une IA. Un modérateur humain fera, par exemple, la distinction entre un parent fier de montrer son enfant en train de nager pendant ses vacances et de la pédopornographie. Un algorithme pourrait ne pas être en mesure de les différencier.
- Les modérateurs humains comprennent mieux les subtilités de la langue comme l’argot, le contexte et l’ironie, et peuvent mieux suivre l’évolution rapide de la langue. Cela permet de réduire les sanctions inutiles en matière de contenu.
- Les modérateurs humains de contenu sont plus sensibles à la culture du matériel qu’ils examinent. Ce qui convient à une région, un pays ou un groupe d’utilisateurs peut ne pas convenir ailleurs. Vous devez donc envisager d’engager des modérateurs issus de la culture dans laquelle vous évoluez, ou d’une culture similaire.
Les inconvénients
- La modération humaine de contenu est difficile et coûteuse à étendre, surtout si cela doit être réalisé rapidement. Le recrutement, la formation et la rétention demandent du temps et de l’argent.
- En raison de l’important volume d’UGC, il n’est pas possible de confier l’ensemble du contenu à des modérateurs humains.
- Toute pénurie de personnel compromet les performances de la plateforme et l’expérience utilisateur.
La modération automatique du contenu
Les avantages
- La modération du contenu, assurée par l’IA/ML, permet de passer au crible de vastes quantités d’UGC en bien moins de temps qu’il n’en faudrait à un humain.
- Elle est entièrement évolutive, et sans implications financières dissuasives.
- Une solution d’IA échappe au stress psychologique que peut entraîner la modération d’un contenu dérangeant.
Inconvénients
- Manque de jugement qualitatif / de nuance : une IA ne peut pas juger l’intention de l’utilisateur au même degré qu’un humain. Les filtres d’injures se laissent parfois tromper. Les fake news ou les informations trompeuses ne sont pas toujours distinguées des sources légitimes. Le contexte culturel ou personnel du contenu peut être omis et mal classé.
- L’application généralisée des directives algorithmiques risque de pénaliser inutilement un grand nombre de contenus et de mécontenter votre communauté d’utilisateurs.
- Sans surprise, de nombreuses entreprises utilisent une solution hybride, l’IA/ML se chargeant d’une grande partie du travail en volume, tout en renvoyant les décisions plus ambiguës aux modérateurs humains.
Compte tenu des inconvénients indéniables de chaque côté, votre plateforme a tout intérêt à suivre l’exemple de la majorité des plateformes en ligne et à adopter une approche hybride de la modération de contenu, pour tirer le meilleur parti de ces deux solutions.
Et comme vous utiliserez probablement une forme d’automatisation dans vos efforts de modération de contenu, nous vous recommandons de lire notre article Comment réussir la modération automatique de contenu, comprenant tous les outils, tactiques et mesures que vous devez connaître.
Créer une équipe de modérateurs de contenu
La mise en place d’une équipe interne de modération de contenu peut présenter un certain nombre d’avantages. Cela permet de disposer d’une ligne de communication et de contrôle directe avec vos modérateurs de contenu. Mais elle s’accompagne également de coûts et de risques importants.
Le recrutement, l’intégration, la formation, le développement, la gestion et le bien-être d’une équipe de modérateurs de contenu sont des tâches compliquées et potentiellement coûteuses.
Notre guide sur la création de votre propre équipe de modération de contenu peut vous aider à décider si vous devez le faire vous-même, et à développer un processus efficace.
Nous avons également rédigé un article consacré à un aspect particulièrement important et difficile de l’emploi de modérateurs internes : la protection de leur bien-être.
Si vous ne pensez pas avoir l’expertise ou les ressources nécessaires pour créer une équipe en interne, il existe toujours une autre solution : l’externalisation.
Externaliser la modération de contenu
Compte tenu de la complexité et des coûts liés à la constitution d’une équipe interne, l’externalisation est une option extrêmement intéressante pour de nombreuses entreprises, car elle leur permet de réduire le temps, les efforts et le budget qu’elles consacrent à la modération.
Les prestataires de service externes ont l’expérience et l’expertise des processus pour gérer les programmes de manière efficace, et sont souvent en mesure sourcer des talents à moindre coûts. Un bon partenaire externe peut également fournir les meilleures pratiques dans ce domaine en constante évolution.
Vous devez choisir votre partenaire avec soin. Les enjeux sont considérables : la réputation de votre marque, la confiance de vos clients, la persévérance de vos annonceurs et la solidité des communautés en ligne que vous avez si difficilement construites.
Recherchez un partenaire qui s’investit sérieusement dans la formation et le soutien de ses modérateurs de contenu. Votre partenaire doit disposer de processus clairs pour sélectionner le personnel adéquat, possédant les compétences, les caractéristiques et l’ouverture culturelle nécessaires à votre marché.
Il doit également investir dans le soutien à la santé mentale, comme l’accès permanent à des services de conseil et des superviseurs formés à la détection des signes de détresse.
Bien que la modération humaine soit essentielle, vous n’avez probablement pas pour objectif d’augmenter indéfiniment les coûts en fonction de l’augmentation du volume de contenu. Un modérateur qui se concentre sur la valeur ajoutée (par exemple, en utilisant les décisions humaines pour mieux entraîner les outils d’IA à prendre des décisions plus complexes) peut être une meilleure solution à long terme que de se tourner vers les options les moins coûteuses.
En faisant appel à un service de modération qui a combiné des capacités humaines et l’IA pour travailler de la manière la plus efficace possible, vous vous assurez d’obtenir une valeur ajoutée optimisée sur le long terme.
Pour plus d’informations sur les principaux éléments à prendre en compte (et les étapes à suivre) pour externaliser votre modération de contenu, consultez notre article : Externaliser la modération de contenu : le b.a.-ba.
Prenez conscience du défi que représente la modération de contenu pour développer la bonne solution.
Quelle que soit la stratégie de modération humaine que vous choisissez (en interne ou en sous-traitance, avec ou sans IA), il est important de reconnaître le rôle crucial qu’elles jouent.
Les modérateurs humains ne sont pas simplement des censeurs appliquant arbitrairement des normes ; ce sont des gardiens qui prennent des décisions critiques et contribuent à maintenir le dynamisme des espaces en ligne. Ce sont des rôles difficiles, spécialisés et importants, qui requièrent à la fois de l’empathie et de l’expertise.
Et si vous pensez avoir besoin d’aide pour pourvoir ces rôles, vous devriez envisager de travailler avec Webhelp.
Nous comptons des milliers de modérateurs de contenu recrutés, formés et gérés de manière experte pour répondre à vos besoins, et ce dans le monde entier et dans plus de 25 langues.
Si vous souhaitez savoir comment nos spécialistes de la modération de contenu peuvent avoir un impact positif sur l’expérience client de votre plateforme, n’hésitez pas à nous contacter.