Le contenu généré par les utilisateurs (UGC) est une arme à double tranchant. D’une part, cela permet aux marques d’étendre leur portée et de se rapprocher de leurs clients de manière authentique. Et dans certains cas, le contenu UGC est lui-même le produit (comme avec Twitter, Reddit ou TikTok).
D’autre part, ce contenu présente des risques importants en matière de réputation, de droit et de réglementation.
Mais c’est un risque que la plupart des marques doivent prendre.
Les consommateurs font davantage confiance aux marques et achètent davantage lorsqu’ils voient du contenu généré par les utilisateurs dans leurs campagnes de marketing. Le marché des plateformes UGC, qui connaît une croissance rapide, représente déjà plus de 3 milliards de dollars.
C’était le cas avant même que le métavers n’entre en scène et offre à la fois des opportunités et des risques considérables, puisque les fans créent du contenu et des expériences inédites pour leurs pairs.
Permettre aux utilisateurs de générer du contenu est déjà intrinsèquement risqué : le contenu peut être illégal, frauduleux, abusif, contraire à la loi et, d’une manière ou d’une autre, ne pas être digne d’être partagé. Mais il n’est pas facile de déterminer exactement ce qui constitue un contenu inapproprié et d’appliquer les normes de manière cohérente, en particulier face à la quantité considérable de contenu.
Comment pouvez-vous alors gérer les risques que pose le contenu UGC tout en profitant des avantages substantiels qu’il procure ?
Cet article tente de répondre à cette question. Plus précisément, vous découvrirez :
- Les avantages de la modération des contenus UGC
- Comment élaborer une charte de modération du contenu bien définie
- Comment faire en sorte que votre communauté et les modérateurs soient du même avis
- Les outils et techniques utile de modération de contenu UGC
Les avantages de la modération des contenus UGC
Sans aucune modération, vos plateformes sont la proie de tout ce qu’internet peut offrir de plus dangereux, qu’il s’agisse de discours haineux, de trolls, de contenus explicites ou de fraudes. Cela peut éroder la confiance dans votre marque et décourager les visiteurs.
Les utilisateurs exposés à des contenus offensants et illégaux sont moins susceptibles d’acheter, et la plupart d’entre eux sont moins susceptibles de revenir sur votre plateforme. Certaines infractions attirent davantage l’attention, en suscitant une grande mobilisation de la presse et des médias sociaux, et en attirant les foudres des groupes de défense des consommateurs ou des législateurs.
Un contenu que vous n’avez jamais publié ou même vu peut entacher votre marque.
A l’inverse, la création d’un lieux épargné par les contenus sensibles peut stimuler l’engagement, l’interaction et les transactions, augmentant ainsi la valeur de la marque.
En d’autres termes, la modération est la clé de voûte des communautés virtuelles dynamiques.
Ainsi, si la modération des contenus UGC est motivée par une forte aversion au risque, elle l’est aussi par la volonté de générer des revenus.
Comment élaborer une charte de modération du contenu bien définie
Certaines décisions de modération sont faciles à prendre : pas de fraude, pas de spam, pas de pornographie. Mais certaines sont plus complexes, et tous les utilisateurs ne seront pas d’accord sur les limites à ne pas franchir.
C’est pourquoi les marques ont besoin d’une politique de contenu qui informe les utilisateurs de ce qui est autorisé et de ce qui ne l’est pas.
Une politique de contenu claire et transparente constitue un point de référence essentiel pour les utilisateurs et les employés qui décident du contenu. Sans un ensemble prédéterminé de règles et de directives, vous laissez la possibilité d’une interprétation individuelle, et on risque de vous reprocher de manquer d’impartialité.
Si vous élaborez une politique de contenu, vous pouvez tenir compte des recommandations suivantes :
Soyez précis
En plus de définir ce qui constitue un contenu autorisé, donnez des exemples spécifiques de contenus qui seraient jugés appropriés ou inappropriés. Vous pouvez même utiliser des vidéos ou des images pour illustrer les seuils à ne pas franchir.
Tenez compte du contexte
Les politiques de contenu doivent être adaptées au contexte. Les normes applicables à un site de rencontres ne sont pas les mêmes que celles d’une application éducative pour enfants.
Définissez les actions à mettre en œuvre
Veillez à ce que votre politique précise ce qui se passera si un utilisateur enfreint ces conditions. Le contenu sera-t-il simplement supprimé, l’utilisateur recevra-t-il un avertissement ou sera-t-il banni de la plateforme ?
Prenez un avis juridique
Travaillez avec vos équipes juridiques sur la formulation de votre politique de contenu afin de vous assurer qu’elle est juridiquement en règles et qu’elle correspond ou peut être adaptée aux lois et réglementations locales. Prévoyez du temps et un budget pour la faire traduire professionnellement dans toutes les langues que votre plateforme utilise.
Respectez le ton de votre communauté
Une politique de contenu est un document sérieux, mais cela ne veut pas dire qu’elle doit être pénible à lire.
Veiller à ce que la politique soit accessible, et même la rendre amusante, pourrait favoriser l’engagement et la prise de conscience.
Comment faire en sorte que votre communauté et les modérateurs soient du même avis?
La grande majorité des utilisateurs est favorable à une modération de contenu juste. Un sondage Gallup a révélé, par exemple, que 85 % des Américains sont favorables à la suppression d’informations fausses ou trompeuses en matière de santé sur les médias sociaux.
La même étude a montré que 81 % des personnes interrogées étaient également favorables à la suppression du contenu délibérément mensonger sur les questions politiques.
Mais pour certains, la modération de contenu et la censure sont les deux facettes d’un même problème. Les gens sont parfois vexés et se sentent personnellement insultés lorsque leur contenu est signalé comme devant être modéré ou carrément rejeté. Il est important de faire preuve d’empathie et de compréhension à l’égard de vos utilisateurs. Voici quelques recommandations qui pourraient vous être utiles :
- Mettez en place un discours cohérent expliquant l’objectif et l’importance de la modération de contenu
- Assurez-vous que vos équipes d’assistance client connaissent votre politique de contenu et savent comment diriger les utilisateurs vers les services pertinents
- Le cas échéant, l’assistance client doit être en mesure de suggérer à l’utilisateur comment adapter ou modifier son contenu pour le rendre acceptable pour le site, par exemple en montrant quels mots ou images spécifiques doivent être changés
- Veillez à ce que l’assistance client explique clairement les conséquences pour l’utilisateur, en particulier s’il enfreint à nouveau la politique de contenu
Effectuer une bonne modération est une tâche délicate. Mais si vous formulez vos réponses avec courtoisie, empathie et précision, vous maximisez vos chances de garder vos utilisateurs de votre côté.
Les outils et techniques utile de modération de contenu UGC
Il existe une grande variété d’outils et de techniques qui peuvent être utilisés pour aider à la modération UGC. Vous trouverez ci-dessous quelques-uns des plus courants.
Know Your Customer (KYC)
Les contenus UGC sont fréquemment utilisés pour amplifier des opinions manifestement mensongères (par exemple, des « experts » médicaux qui prétendent avoir trouvé des remèdes miracles ou qui nient l’existence de certaines maladies). Il peut donc être important pour les modérateurs de contenu UGC de déterminer si l’auteur d’un contenu est bien celui qu’il prétend être.
Les procédures KYC jouent un rôle important pour vérifier les informations relatives à l’identité de l’utilisateur.
Elles peuvent être intégrées au processus de modération de contenu à différents stades. En fonction de votre activité, vous souhaiterez peut-être effectuer des contrôles KYC sur une partie ou la totalité des utilisateurs qui souhaitent publier du contenu, puis transmettre le contenu à des modérateurs en cas d’alerte. Par ailleurs, les modérateurs peuvent demander une vérification KYC uniquement lorsqu’ils soupçonnent que l’auteur n’est pas vraiment fiable, ce qui peut également être un moyen d’éviter de dissuader vos utilisateurs de s’inscrire à cause de processus KYC stricts.
Pour en savoir plus, consultez notre article de blog pour savoir si une stratégie KYC appropriée aurait pu empêcher « l’Arnaqueur de Tinder » de frapper ?
Le traitement automatique du langage naturel (NLP)
L’intelligence artificielle sert de plus en plus à automatiser la modération de contenu. Les outils d’IA appelés traitement automatique du langage naturel (NLP) peuvent être utilisés pour analyser le langage humain écrit ou parlé, et même pour analyser les sentiments, ce qui peut être utile pour identifier les discours haineux ou les abus en ligne.
Bien que le NLP soit loin d’être infaillible, il peut être utilisé pour bloquer les contenus qui violent clairement les politiques de contenu, et pour signaler le contenu que les outils d’IA n’ont pas complétement réussi à identifier pour qu’il soit examiné par des humains.
La reconnaissance d’image
La vision par ordinateur (un système d’intelligence artificielle permettant aux ordinateurs d’extraire des informations significatives à partir d’images numériques) permet de classer le contenu visuel.
Cette technologie intelligente peut également être exploitée pour prédire les émotions que les images/vidéos sont susceptibles de susciter. Elle peut même indiquer la probabilité que ces images et vidéos contiennent certaines catégories de contenus offensants ou inappropriés.
Ces outil d’IA apprennent et s’améliorent en permanence. Mais elles ne sont pas parfaites. Par exemple, en fonction de la quantité de peau affichée, une IA pourrait ne pas être en mesure de faire la distinction entre un parent fier de montrer son enfant en train de nager pendant ses vacances et de la pédopornographie.
Il en résulte souvent un blocage ou une pénalisation injustifiés du contenu, au grand dam des utilisateurs.
Pas de panique, vous pouvez obtenir de l’aide
La modération de contenu implique des enjeux considérables. Correctement géré et contrôlé, le contenu généré par les utilisateurs peut apporter des avantages non négligeables à l’entreprise. Pourtant, les risques liés à un contenu UGC mal modéré sont tout aussi importants.
Il existe des mesures pratiques que vous pouvez prendre pour vous retrouver du bon côté de l’équation, mais éviter les pièges requiert une expertise et des ressources considérables.
De nombreuses entreprises choisissent d’externaliser complètement leurs fonctions de modération et de gestion de contenu, souvent parce qu’il est moins coûteux de les confier à un prestataire de service externe qui peut puiser dans une main-d’œuvre moins onéreuse. Mais le modèle des personnes en place n’est pas toujours de la plus haute qualité ou du meilleur rapport qualité-prix.
Chez Webhelp, nous concevons la modération différemment. Nous nous concentrons sur la mise en place d’une équipe de modération de contenu adaptée aux spécificités de l’entreprise, et nous développons des processus pour les associer à une IA de plus en plus intelligente. Au fil du temps, nous optimisons les modèles d’IA en nous appuyant sur les commentaires des modérateurs, afin de confier à l’IA des décisions de plus en plus complexes.
La plupart des entreprises aspirent à sortir du cercle vicieux de l’augmentation constante des ressources, d’autant plus que le Web 3.0 est sur le point d’accroître considérablement la complexité et le volume du contenu.
En savoir plus sur nos services digitaux.