Créer une équipe de modérateurs de contenu
Votre plateforme en ligne risque de payer le prix fort si elle héberge du contenu problématique généré par les utilisateurs, même par inadvertance.
Les clients ne voudront plus la consulter, les annonceurs ne voudront plus y figurer et votre marque pâtira du simple fait d’y être associée.
Pour que votre plateforme reste saine, vous aurez probablement besoin de modérateurs de contenu.
De nombreuses organisations choisissent d’externaliser la modération de contenu, mais d’autres ont tout intérêt à créer une équipe en interne.
Sur cette page, nous vous donnons un aperçu de tout ce que vous devez savoir et faire pour mettre en place et développer une équipe interne efficace de modération de contenu, en nous fondant sur notre expérience en matière de modération.
Pour avoir une vue d’ensemble de l’importance de la modération de contenu généré par l’utilisateur et des défis qu’elle pose, consultez notre guide ultime de la modération de contenu.
Sommaire :
- Choisir votre approche
- Comment fonctionnent généralement les équipes de modération de contenu ?
- Créer votre équipe : taille, structure, rôles et responsabilités
- Recruter et intégrer des modérateurs de contenu
- Former et faire évoluer de modérateurs de contenu
- Protéger le bien-être de vos modérateurs de contenu
- Mesurer le succès de votre équipe
Choisir votre approche
L’approche que vous adoptez pour modérer votre contenu généré par les utilisateurs (contenu UGC) détermine en partie la taille et la structure de l’équipe de modération que vous devez mettre en place.
Plusieurs options s’offrent à vous et vous finirez probablement par en combiner plusieurs.
Pré-modération ou post-modération ?
Vos modérateurs humains peuvent filtrer les contenus soumis par les utilisateurs avant ou après leur publication sur votre plateforme.
La pré-modération fonctionne bien sur les plateformes où les utilisateurs acceptent d’attendre que leur contenu soit publié, comme sur les sites de petites annonces tels que Le Bon Coin, par exemple.
Pour les plateformes où la rapidité d’interaction est primordiale, comme sur les réseaux sociaux, la pré-modération peut causer une file d’attente de contenu. À l’inverse, la post-modération est plus rentable que d’avoir à évaluer chaque contenu.
Modération manuelle, automatique ou hybride ?
La modération manuelle de contenu est effectuée par des modérateurs humains qui ne reçoivent pratiquement aucune aide, et pour la plupart des plateformes, compte tenu du volume de contenu qu’elles doivent filtrer, cette méthode est tout simplement impossible à mettre en œuvre.
Parallèlement, les outils de modération de contenu automatiques, bien qu’ils soient capables d’examiner rapidement de grandes quantités de contenu, ne sont pas toujours en mesure d’identifier avec précision ce qui est acceptable et ce qui ne l’est pas.
C’est pourquoi la plupart des plateformes optent pour un modèle hybride, dans lequel des outils de modération automatique filtrent le contenu.
Les contenus plus ambigus sont transmis à des modérateurs humains de contenu, qui les catégorisent en fonction des différents types de files d’attente de modération. C’est le cas des les contenus sexuellement explicites ou frauduleux, par exemple. Les décisions prises par ces humains entraînent également l’IA à s’adapter à l’argot et aux évolutions de la langue, ainsi qu’à d’autres subtilités.
Pour en savoir plus sur ces modèles, ainsi que sur les opportunités et les pièges liés à l’automatisation de la modération de contenu, consultez notre article : Comment maîtriser la modération automatique de contenu.
Modération centralisée ou décentralisée
La modération de contenu centralisée est effectuée par une équipe de modérateurs de contenu, tandis que la modération de contenu décentralisée est généralement effectuée par les utilisateurs de la plateforme.
Cette dernière option est certes moins coûteuse, mais il est très risqué de confier la majeure partie de la modération du contenu à votre communauté virtuelle. Si vous faites de vos utilisateurs votre première ligne de défense, certains d’entre eux seront inévitablement exposés à du contenu inapproprié.
Ils n’ont pas non plus la formation nécessaire pour appliquer votre charte de modération de contenu de manière cohérente. Enfin, les individus malveillants peuvent manipuler le système, par exemple en empêchant les personnes avec lesquelles ils ne sont pas d’accord de s’exprimer.
Cependant, disposer d’un certain degré de modération décentralisée sur votre plateforme peut s’avérer pertinent. Il est en effet probable que certains contenus problématiques échappent à vos modérateurs automatiques et humains à un moment ou à un autre, et il est important que les utilisateurs puissent attirer votre attention sur ces contenus indésirables.
Le type de plateforme que vous gérez et la variété du contenu détermineront les approches qui vous conviennent le mieux. En règle générale, nous recommandons d’utiliser une approche hybride centralisée qui combine la pré-modération automatique et la modération humaine pour les contenus signalés pour examen par l’IA et les utilisateurs.
Comment fonctionnent généralement les équipes de modération de contenu ?
Dans le cadre du modèle hybride centralisé classique décrit ci-dessus, les algorithmes d’IA / Machine Learning (ML) gèrent la plus grande partie du travail sans intervention humaine : souvent jusqu’à 80-90 % de la modération.
Quand les algorithmes ne savent pas quoi faire avec certains contenus générés par les utilisateurs, ces derniers sont envoyés dans différentes files d’attente pour être examinés par des modérateurs de contenu humains.
Ce contenu sera filtré en fonction de la langue et du lieu afin que les modérateurs web puissent le comprendre et le replacer dans son contexte culturel.
Il sera ensuite classé en fonction du type de risque potentiel détecté par l’IA, tels que la fraude, la nudité, le discours haineux ou la désinformation.
Les modérateurs humains déterminent ensuite si l’IA a correctement identifié un danger ou non. Si c’est le cas, le modérateur de contenu pourra supprimer, censurer ou bloquer le contenu non autorisé ; si ce n’est pas le cas, le modérateur autorisera le contenu à être (ou à rester) publié.
Quelle que soit la décision prise par le modérateur humain, elle sera prise en compte par l’algorithme afin d’améliorer sa précision à l’avenir.
Les utilisateurs de la plateforme devraient également pouvoir signaler les contenus qu’ils jugent inacceptables. Les tickets qu’ils créent doivent être placés dans une file d’attente prioritaire pour être traités par les modérateurs.
La différence avec cette file d’attente est que les modérateurs rechercheront les utilisateurs de la plateforme qui les induisent délibérément en erreur ou qui les « trollent ». Ils seront généralement autorisés à sanctionner ces utilisateurs en leur imposant des délais d’attente ou en interdisant l’accès de leur adresse IP.
Pour obtenir des conseils sur la façon d’aider vos modérateurs de contenu à accomplir leur tâche, notamment sur la façon d’élaborer une politique de modération de contenu bien définie et sur la façon de mettre votre public et vos modérateurs d’accord, consultez notre article sur la modération de contenu généré par les utilisateurs.
Créer votre équipe : taille, structure, rôles et responsabilités
Il est impossible de déterminer la taille idéale d’une équipe de modération de contenu, car elle dépend en grande partie des éléments suivant :
- Le volume de contenu
- Le type de contenu
- La longueur du contenu
- La rapidité avec laquelle le contenu doit être publié après avoir été mis en ligne
Le délai moyen de traitement de chaque cas sera influencé par le format du contenu, bien qu’au sein d’un même format, la durée du traitement puisse varier considérablement.
Par exemple, les vidéos sur TikTok peuvent durer 10 secondes (et être visionnées par les modérateurs en accéléré). Mais elles peuvent aussi désormais durer 10 minutes, voire beaucoup plus, puisque TikTok permet désormais les diffusions en direct. De même, les commentaires sur Facebook peuvent être constitués d’une phrase ou de cinq paragraphes.
Votre approche de la modération aura également une incidence sur la taille de votre équipe et sur les postes que vous devrez envisager.
Pour pré-modérer les publicités destinées aux utilisateurs, vous pourriez n’avoir besoin que d’une équipe de 10 à 15 modérateurs humains ; pour post-modérer des files d’attente de commentaires de médias sociaux signalés par l’IA, vous pourriez avoir besoin de centaines d’entre eux.
Ceci étant dit, il y existe des rôles qui reviennent dans la majorité des équipes de modération de contenu, et sur lesquels vous pouvez vous appuyer pour constituer la vôtre :
Les modérateurs de contenu
Même si vous vous appuyez largement sur l’IA pour filtrer le contenu, vous devrez soigneusement sélectionner, former et soutenir les modérateurs pour examiner les contenus plus ambigus sur lesquels l’IA ne peut pas se prononcer et réviser les décisions qui font l’objet d’un appel.
Si vous optez pour un modèle hybride, vous aurez besoin de modérateurs de contenu pour traiter les files d’attente d’éléments signalés par l’IA et les utilisateurs de la plateforme.
Chaque file d’attente contient du contenu que l’IA a estimé appartenir à une catégorie spécifique de contenu sensible (tels que la nudité, la fraude et les discours haineux).
D’après notre expérience, vous aurez probablement plus de 10 files d’attente de catégories de contenu pour votre site Web ou votre application. Chaque file d’attente nécessitera une équipe, dont les membres auront été soigneusement sélectionnés pour s’assurer qu’ils disposent des compétences et de la résilience nécessaires pour travailler sur une catégorie particulière. Les équipes travaillent généralement de jour comme de nuit pour modérer les files d’attente.
Le contexte local est extrêmement important lorsqu’il s’agit de déterminer le degré d’acceptabilité d’un contenu (certains mots peuvent être offensants au Royaume-Uni et non aux États-Unis, par exemple). Vous avez donc besoin de modérateurs pour toutes les langues et cultures dans lesquelles votre plateforme opère.
L’analyste qualité
Les analystes qualité assurent en quelque sorte un double service de modération, permettant de s’assurer que les modérateurs de contenu prennent les bonnes décisions.
Ils choisissent des cas au hasard pour en vérifier la qualité ; ils modèrent les modérateurs web en quelques sortes.
Traditionnellement, les analystes qualité examinent environ 5 % des décisions prises par les modérateurs de contenu expérimentés, et deux fois plus pour les nouveaux modérateurs. Cela signifie généralement qu’il faut employer un analyste en assurance qualité pour 30 à 50 modérateurs.
Nos analystes en assurance qualité travaillent en étroite collaboration avec les chefs d’équipe et l’équipe de formation afin de s’assurer que tous les problèmes trouvent leur solution, et qu’il n’y ait pas de potentielle erreur d’interprétation de la politique de contenu du client par les modérateurs.
Les chefs d’équipe
Ils sont nécessaires pour superviser, guider et protéger les modérateurs de contenu. Les modérateurs web doivent impérativement entretenir des relations étroites avec leur chef d’équipe, afin que les problèmes de performance et les tensions psychologiques ne passent pas inaperçus.
C’est pourquoi nous recommandons que chaque chef d’équipe ne supervise pas plus de 15 modérateurs de contenu.
D’autres experts peuvent également intervenir sur site pour superviser les modérateurs et fournir des conseils et un soutien lorsque les chefs d’équipe ne sont pas disponibles.
Chaque intervenant doit superviser une quinzaine de modérateurs sur site.
Le psychologue
Il est essentiel de veiller au bien-être psychologique de vos modérateurs pour conserver leurs performances et limiter l’attrition. Les psychologues sont nécessaires à la fois pendant le processus initial d’embauche et d’intégration (pour détecter les déclencheurs de traumatismes potentiels) et pour apporter un soutien continu aux modérateurs en matière de santé mentale. Ce soutien est si important qu’il doit être accessible chaque journée de travail des modérateurs.
Les responsables des opérations
Ces personnes gèrent les opérations quotidiennes de l’équipe de modération de contenu. Nous vous recommandons d’engager un responsable des opérations pour 100 modérateurs.
Quelles que soient la taille et la structure de votre équipe de modération de contenu, une chose est sûre : il vous faudra des modérateurs de contenu, et probablement beaucoup d’entre eux.
Examinons donc de plus près certaines des choses que vous devez garder à l’esprit lors du recrutement, de l’intégration, de la formation et du développement de ces modérateurs.
Recruter et intégrer des modérateurs de contenu
Il n’est pas donné à tout le monde d’être modérateur de contenu. En tant que travailleurs de première ligne des plateformes, ils seront régulièrement exposés à du contenu potentiellement perturbant.
Ainsi, lorsque vous recrutez des membres pour votre équipe de modération de contenu, n’oubliez pas qu’il ne s’agit pas seulement de chercher les bonnes personnes pour faire le travail, mais il faut aussi que vous soyez l’entreprise idéale pour ce métier. Et cela commence par la manière dont vous recrutez et intégrez les nouveaux modérateurs.
Vos modérateurs devront être suffisamment éveillés et sensibles aux différences culturelles pour prendre des décisions rapides sur des contenus souvent très nuancés.
Le meilleur moyen de garantir la prise en compte des spécificités culturelles est de recruter localement. Si vous assurez une modération sur le marché américain, par exemple, il est préférable de disposer d’une équipe de modération de contenu aux États-Unis. Si ce n’est pas possible, recherchez des cultures comparables.
Les modérateurs devront également être soumis à un examen psychologique. Cela évitera à votre organisation d’embaucher des personnes qui ne conviennent pas au poste, mais cela vous aidera également à assigner les bonnes personnes aux différents types de contenu.
Les psychologues devraient interroger les nouveaux employés lors de leur intégration afin d’évaluer leur niveau de résilience et d’identifier le type de contenu qu’ils trouvent particulièrement traumatisant et desquels ils devraient être protégés.
De même, les personnes ayant un niveau élevé de résistance aux contenus plus difficiles peuvent être affectées aux types de contenus correspondante.
Enfin, toute personne que vous embauchez doit être consciente des risques pour la santé mentale liés à son travail.
Former et faire évoluer de modérateurs de contenu
Vos modérateurs web doivent être formés à un maximum de processus et de formats de contenu afin de pallier les absences éventuelles (pour cause de maladie ou de vacances par exemple).
Cela signifie qu’il faut les exposer à des types de contenus différents et à des cas plus complexes et subtils (dans la limite de leurs capacités et de leur niveau de résilience, bien entendu). Ils devraient également être informés du type d’erreurs que peuvent commettre les algorithmes qui signalent les contenus à examiner.
Pensez aussi à votre stratégie d’équipe à long terme. La promotion de vos modérateurs de contenu à des postes de chef d’équipe ou d’analyste en assurance qualité leur offre un plan de carrière et vous est bénéfique, car ils auront une bonne connaissance de vos processus et de votre charte de modération de contenu.
Les personnes qui accéderont à des postes de chefs d’équipe devront posséder de bonnes aptitudes relationnelles pour travailler avec les modérateurs qu’ils supervisent. C’est un élément essentiel pour développer des relations solides avec les modérateurs.
Elles devront également travailler efficacement avec les différents experts et les psychologues de leur équipe, les autres équipes de modération et les représentants de toute l’entreprise, en particulier les ingénieurs et les data scientists si vos algorithmes sont développés en interne.
Protéger le bien-être de vos modérateurs
Une grande partie du contenu que vos modérateurs devront examiner quotidiennement peut-être choquant, voire traumatisant. S’ils ne sont pas correctement accompagnés, ils risquent de s’épuiser rapidement, de démissionner ou même de souffrir d’un syndrome de stress post-traumatique.
Au-delà de l’impact sur votre activité, laissez votre équipe de modération souffrir de stress et de traumatismes pose un problème d’éthique.
Plus vos modérateurs se sentent bien, plus ils seront efficaces et productifs. Alors, comment améliorer leur bien-être ? Vous devrez créer un environnement et une culture de travail favorables qui les encouragent à trouver un sens à leur travail en tant que premiers intervenants chargés d’assurer la sécurité d’internet pour les utilisateurs. Adoptez une approche compatissante de la gestion et envisagez de vous appuyer sur la technologie pour surveiller le bien-être mental de vos modérateurs.
Pour obtenir des conseils sur la façon de faire tout cela, consultez notre article Protéger la santé mentale de vos modérateurs de contenu.
Mesurer le succès de votre équipe
Il est essentiel de mesurer les performances de votre équipe de modération de contenu, à la fois pour les optimiser et pour obtenir le soutien du reste de l’entreprise.
Voici quelques indicateurs à suivre pour comprendre la performance de vos modérateurs et de vos systèmes de modération automatiques :
- La proportion des utilisateurs de votre plateforme exposés à des contenus sensibles
- Le pourcentage de contenu signalé comme inapproprié
- Le temps de réponse de vos modérateurs humains (entre le moment où une activité ou un contenu est signalé par un système automatique et celui où le ticket est fermé)
- Le nombre de tickets traités par les modérateurs individuels chaque heure
- L’impact des activités de votre équipe sur la satisfaction des clients, suivi par des mesures telles que le CSAT et le NPS
- La précision avec laquelle vos systèmes automatiques de modération de contenu catégorisent le contenu et l’amélioration de cette précision à mesure que ces systèmes reçoivent davantage de données
- Le score F1 (la performance prévisionnelle de votre modèle d’IA)
- Le taux de rappel de votre modèle (exactitude des vrais par rapport aux faux positifs et négatifs)
Du point de vue du bien-être, vous devez également veiller à ce que vos modérateurs humains soient satisfaits de leur travail et du soutien que vous leur apportez. Faites en sorte qu’ils vous donnent régulièrement leur avis et suivez votre taux de rétention.
Si vous soutenez leur bien-être de manière efficace, vos modérateurs ont plus de chances d’être satisfaits et fiers de travailler pour vous. Ils seront ainsi plus efficaces avec votre communauté d’utilisateurs.
Créez l’équipe de modération de contenu que les utilisateurs de votre plateforme méritent
Ça ne fait aucun doute : créer votre propre équipe de modération de contenu demande une réflexion approfondie, de l’acharnement et un grand investissement financier.
Vous pensez avoir besoin d’une aide extérieure? Webhelp fournit des services de modération de contenu externalisés à plus de 200 clients dans le monde entier, dans plus de 25 langues.
Notre solution hybride associe des modérateurs de contenu experts à une IA et une technologie internes testées rigoureusement, ainsi qu’à un contrôle en temps réel, le tout pouvant être adapté aux besoins spécifiques de votre organisation.
Si vous souhaitez en savoir plus sur ce que nous pouvons faire pour votre plateforme et votre entreprise dans le cadre d’une collaboration, cliquez sur le bouton ci-dessous pour nous contacter.