Trust and Safety : pourquoi est-ce essentiel, et comment le mettre en œuvre correctement?

Internet peut se révéler être un environnement risqué, tant pour les utilisateurs que pour votre marque, et vous aurez peut-être besoin de politiques de Trust & Safety (confiance et sécurité) ainsi que d’une équipe spécialisée pour assurer la protection de tous.

La confiance et la sécurité peuvent non seulement atténuer les dommages causés à la marque et la perte de clients, mais aussi vous aider à créer une meilleure expérience utilisateur, à fidéliser vos clients et à améliorer vos résultats.

Mais c’est plus compliqué qu’il n’y paraît. Nous avons créé cette page pour vous offrir une formation accélérée sur le Trust and Safety, et partager les meilleures pratiques pour constituer une équipe dédiée efficace.

Sommaire :

  1. Qu’est-ce que le Trust & Safety et pourquoi est-ce important? 
    • L’évolution du Trust and Safety
  2. Créer votre équipe de Trust & Safety
    • Rôles et responsabilités
  3. Renforcer votre équipe de Trust & Safety
    • Obtenir le soutien des dirigeants
    • Obtenir le soutien d’autres services
  4. Comment intégrer le Trust and Safety dans vos processus d’entreprise
  5. Mesures et indicateurs clés du succès
  6. Études de cas sur le Trust and Safety

Qu’est-ce que le Trust & Safety et pourquoi est-ce important?

Les consommateurs accordent de l’importance à la confiance. Beaucoup d’importance. Dans un sondage réalisé en 2019, 81 % des consommateurs déclarent qu’ils doivent pouvoir faire confiance à une marque avant d’acheter auprès d’elle. Un sondage mené en 2021 auprès des consommateurs britanniques a révélé que 71 % d’entre eux cesseraient complètement d’acheter auprès d’une entreprise si leur confiance était brisée.

Si les consommateurs ne font pas confiance à votre plateforme pour les protéger contre la fraude et les contenus inappropriés ou trompeurs, ils consacreront leur temps et dépenseront leur argent ailleurs.

À l’inverse, si les utilisateurs estiment que votre plateforme est un endroit sûr, ils seront plus enclins à porter un regard positif sur votre marque, à dépenser de l’argent et à parler de vous à leur entourage.

L’équipe de Trust & Safety va renforcer et préserver la confiance des consommateurs dans votre marque en veillant à ce que votre plateforme en ligne soit un endroit sûr et digne de confiance que les utilisateurs peuvent visiter et avec lequel ils peuvent interagir. Pour ce faire, elle élabore et applique des politiques qui régissent le comportement des utilisateurs de votre plateforme et enquête sur les causes profondes des violations majeures de ces politiques.

Dans le contexte de la modération de contenu, le Trust & Safety est un ensemble de principes (généralement élaborés, appliqués et mis à jour par l’équipe chargée de la confiance et de la sécurité) visant à réglementer le comportement des utilisateurs de votre plateforme et à les empêcher de publier du contenu qui enfreint les directives de la plateforme.

Si les systèmes automatiques de modération de contenu peuvent signaler les contenus qui enfreignent la politique, des modérateurs de contenu humains restent nécessaires pour évaluer les violations les plus ambiguës. Des analystes interviennent ensuite pour enquêter sur les causes profondes des violations et y remédier, par exemple en signalant les activités illégales aux autorités chargées de l’application de la loi.

Les équipes de Trust & Safety protègent également les organisations contre toute une série de menaces et d’escroqueries. Elles vérifient l’identité des clients et évaluent en permanence leurs actions et leurs intentions.

Ces activités aident les organisations à faire confiance à leurs clients. Et les clients peuvent se fier aux autres utilisateurs de la plateforme, à leur identité et à leur bonne foi.

Le développement du Trust and Safety

Les notions de Trust and Safety, en tant que fonction commerciale, sont issues de la prévention de la fraude.

Les équipes chargées de la prévention des fraudes se concentrent sur la prévention de la fraude financière sur les sites d’e-commerce, par exemple lorsque des individus malveillants utilisent des cartes de crédit volées pour effectuer des achats.

Le Trust & Safety est apparu lorsque les entreprises d’e-commerce ont étendu leurs services à des fournisseurs et à des expériences qui n’étaient pas entièrement sous leur contrôle, par exemple en utilisant des vendeurs tiers. Cette activité a pris de l’ampleur avec l’explosion du contenu généré par les utilisateurs sur les plateformes en ligne.

Le contenu généré par les utilisateurs a permis à de nombreuses plateformes de prospérer, mais les a également exposées (ainsi que leurs utilisateurs) à de nombreux abus :

  • De faux comptes d’utilisateurs laissant des commentaires fallacieux sur les produits qui érodent la confiance des consommateurs
  • Des sites web qui imitent une marque pour inciter les utilisateurs à donner leurs informations d’identification
  • Des liens menant vers de fausses « promotions spéciales » qui contiennent des logiciels malveillants envoyés par des malfaiteurs
  • Du contenu inapproprié ou illégal généré par les utilisateurs qui nuit aux autres utilisateurs de votre plateforme

Avec la prolifération de ce type de menaces, il est inévitable que les activités de Trust and Safety se développent en tant que fonction de l’entreprise, et qu’elles s’étendent à des domaines plus vastes, notamment l’ingénierie de nouveaux produits et la conception de parcours clients.

L’essor du métavers pose de nouveaux défis aux équipes de Trust & Safety.

Par exemple, elles devront parfois réglementer le comportement en temps réel plutôt que le contenu en file d’attente, et devront trouver un équilibre entre la nécessité de créer un environnement sûr pour les utilisateurs du métavers et le risque de décourager les utilisateurs et les créateurs en réglementant excessivement leur expérience.

Obtenez votre e-book : Modération de contenu et CX à l’ère du métavers

Compte tenu de l’augmentation constante des menaces en ligne, la plupart des plateformes en ligne, si ce n’est toutes, ont besoin d’une équipe de Trust & Safety pour réguler le comportement des utilisateurs dans les meilleurs délais.

Bien entendu, c’est plus facile à dire qu’à faire. Mais rassurez-vous : nous sommes là pour vous donner des conseils sur la constitution d’une équipe adaptée aux besoins de votre organisation…

Créer votre équipe de Trust & Safety

Tout d’abord, vous devez déterminer les besoins de votre organisation en matière de Trust and Safety.

Pour ce faire, vous devrez peut-être recueillir des données ou examiner des données déjà recueillies, mener des entretiens avec des employés, sonder certains sous-groupes d’utilisateurs de votre plateforme et vous adresser à des pairs au sein d’autres entreprises afin de comprendre les problématiques universels et les solutions qui pourraient y remédier.

Certains utilisateurs risquent de mal réagir lorsque vous supprimerez du contenu ou que vous bannirez certains utilisateurs (ou au contraire lorsque vous ne les exclurez pas). Vous pouvez atténuer ce risque en rendant vos normes et processus en matière de contenu aussi transparents que possible. Si vos politiques ne sont pas transparentes, de nombreux utilisateurs décideront qu’il ne vaut pas la peine de contribuer à votre plateforme.

Pour être le plus transparent possible , vous pouvez publier une politique communautaire qui définit les comportements acceptables et inacceptables sur votre plateforme en ligne, les motifs qui justifient ou non la prise de mesures, les mesures qui seront prises et le moment où elles le seront, et prévoir un mécanisme d’appel des décisions précis.

Rôles et responsabilités

Quels rôles sont nécessaires dans une équipe de Trust & Safety efficace ?

Chaque équipe varie en fonction des besoins de l’organisation, mais certains rôles sont communs à toutes les équipes chargées du Trust and Safety.

Voici une liste des divisions dont vous pourriez avoir besoin au sein de votre équipe, ainsi que les rôles à pourvoir.

Supervision

  • Le vice-président chargé de la confiance et de la sécurité : responsable de l’élaboration et de la mise en œuvre des politiques relatives à la sécurité des utilisateurs, de la définition des grandes lignes du comportement des utilisateurs et de la mise en place d’un protocole en cas de crise.

Composition des opérations

  • Le directeur des opérations : supervise les activités quotidiennes de l’équipe, y compris l’assurance qualité, la formation, la gestion des capacités et des flux de travail, la mise en œuvre des changements, l’élaboration d’un protocole d’examen, la réponse et la gestion des crises et des incidents.
  • Le chef de projet : gère les modérateurs de contenu (ou, si la modération de contenu est externalisée, la relation avec le fournisseur) et collabore avec les services produit, ingénierie, communication et juridique afin de développer des processus évolutifs pour soutenir la modération de contenu.

Modération de contenu

  • Le responsable de la politique de contenu : élabore des politiques détaillées pour déterminer ce qui est autorisé ou non sur votre plateforme, conformément aux valeurs de votre organisation et aux exigences légales et réglementaires.
  • Le responsable de la politique produit : développe et affine les principes et les politiques spécifiques aux différents produits de votre organisation, par exemple les publicités et le contenu sponsorisé.
  • Les modérateurs de contenu : les modérateurs de première ligne sont chargés de traiter le contenu généré par les utilisateurs qui enfreint les directives de votre plateforme, souvent signalé par un système de modération de contenu automatique.

Politiques publiques et communications

  • Le responsable des politiques publiques : il noue et entretient des partenariats avec des parties prenantes externes (telles que des ONG, des gouvernements, des organismes de réglementation), donne des conseils en interne pour guider le développement de produits, de services et de politiques, et façonne l’opinion publique et politique au sujet de votre plateforme.

Ingénierie

  • Le data scientist : chargé d’élaborer des méthodes permettant de mesurer l’étendue des violations de la politique sur le site et l’impact de la modération du contenu. Il peut également analyser les données pour aider à prédire, détecter et limiter les violations de manière proactive.
  • L’ingénieur logiciel : responsable du développement de tous les aspects techniques de la modération et de l’application du contenu, tels que les modèles d’apprentissage automatique permettant d’étendre/automatiser l’application, les systèmes qui prennent en charge les rapports destinés aux utilisateurs.

Service juridique

  • Le conseiller juridique : il traite les demandes provenant des organismes chargés de l’application de la loi, des organismes de réglementation et des agences gouvernementales, ainsi que d’identifier les problèmes potentiels et de fournir des conseils en matière de risques juridiques.

À moins de bénéficier d’un soutien exceptionnel de la part de la direction, vous devrez probablement prouver la valeur de ce que vous faites avant de pouvoir commencer à constituer une équipe vraiment complète.

La section suivante examine comment vous pouvez vous y prendre pour prouver cette valeur, obtenir ce soutien et faire en sorte que votre organisation soit en mesure d’instaurer la confiance et de réussir en matière de sécurité.

Renforcer votre équipe de Trust & Safety

Pour pouvoir recruter en vue de constituer et d’étoffer votre équipe, vous devrez obtenir l’adhésion des principales parties prenantes, au niveau de la direction et des autres services.

Obtenir le soutien des dirigeants

Voici quelques idées pour convaincre la direction du Trust and Safety :

  • Partagez vos conclusions concernant les besoins de votre organisation en matière de Trust and Safety. Après avoir bien étudié la question, il devrait être facile de communiquer la valeur de votre démarche à votre organisation.
  • Obtenez le plus tôt possible des mesures indiquant que les activités de votre équipe réduisent les fraudes et permettent à votre organisation de réaliser des économies.
  • Créez une demande pour le Trust and Safety en montrant aux responsables de produits comment cela peut améliorer l’expérience de leurs utilisateurs sans qu’ils aient à surcharger leurs équipes d’ingénieurs ou à embaucher des opérateurs supplémentaires.

Notons que de nombreuses organisations reconnaissent déjà l’importance des activités de Trust & Safety, et que des responsables du Trust and Safety sont de plus en plus souvent nommés au sein de la direction.

Les agents du Trust & Safety sont responsables de la sécurité des utilisateurs de l’organisation. Selon la portée des activités de votre équipe, les compétences du responsable peuvent couvrir un large éventail de services, notamment ceux des produits, de l’ingénierie, du marketing, des affaires juridiques, des ressources humaines, de la protection de la vie privée et de la sécurité.

La supervision de cet ensemble d’activités par une seule personne permet de s’assurer que la sécurité et l’intégrité de la plateforme ne se perdent pas dans les silos de l’organisation.

Cependant, que votre organisation nomme ou non un spécialiste du Trust and Safety au sein de la direction, il est essentiel d’investir pour obtenir le soutien de plusieurs parties prenantes de l’entreprise.

Obtenir le soutien d’autres services

Pour obtenir l’adhésion de tous les acteurs de l’entreprise, vous devez formuler des objectifs facilement compréhensibles en matière de Trust and Safety.

Veillez à ce que votre équipe compte des personnes capables d’assurer la liaison avec d’autres services et produits au sein de votre organisation, et expliquez qu’il ne s’agit pas seulement de prévenir les fraudes à la carte de crédit et les spams (aussi important que cela puisse être).

Les programmes de Trust and Safety visent à améliorer l’expérience des utilisateurs de votre plateforme, à renforcer et à préserver la réputation de votre marque, à fidéliser les utilisateurs et à augmenter leur valeur à vie, à accroître l’audience de votre plateforme et à réduire le nombre de plaintes qui mobilisent de nombreuses ressources.

C’est ce que vous devez démontrer, ainsi que la manière dont le travail de votre équipe est spécifiquement lié à ses rôles et responsabilités, afin que les principes soient appliqués de manière cohérente.

Voici quelques exemples sur les fonctions et les équipes qui en bénéficieront ou qui assument elles-mêmes des responsabilités en matière de Trust and Safety.

Les équipes produits et ingénierie sont la clé du succès de vos actions. Elles sont chargées de développer des algorithmes de modération automatique et de mettre en place, dans les produits qu’elles développent, des mécanismes qui respectent les directives liées au Trust and Safety et qui protègent les utilisateurs de ces produits. Si les utilisateurs ne font pas confiance à leur produit, il sera voué à l’échec.

Les équipes chargées de l’expérience client/utilisateur peuvent parfois se méfier des dispositifs nécessaires pour renforcer la confiance et la sécurité, car elles pensent qu’ils ajoutent des frictions inutiles aux parcours clients. Votre équipe se doit de les rassurer en leur montrant que vous partagez ces préoccupations : après tout, l’un des principaux objectifs des activités de Trust & Safety est de créer de meilleures expériences pour les clients.

Il n’est pas nécessaire de créer des désaccords supplémentaires pour rendre ces expériences plus fiables. Les parcours clients peuvent être personnalisés en fonction de l’évaluation de la confiance et du risque de chaque client. Par exemple, on peut imaginer que seuls les clients de confiance puissent accéder au paiement en un seul clic.

Votre fonction marketing est, bien sûr, chargée de gérer la perception de la marque par le public, et le maintien de la confiance et de la sécurité des utilisateurs de votre plateforme est essentiel pour que cette perception reste positive.

Par ailleurs, vos équipes de vente doivent garder à l’esprit que pour obtenir des revenus publicitaires, les annonceurs ne doivent pas avoir de problème à voir leurs campagnes apparaître sur votre plateforme à côté de contenu généré par les utilisateurs. Ils ne voudront pas que leurs publicités apparaissent à côté du moindre élément problématique. Pour eux aussi, le Trust and Safety doit donc être considéré comme une priorité.

Tant le marketing que les ventes doivent contribuer au Trust and Safety en protégeant la vie privée des utilisateurs et en utilisant leurs données de manière responsable.

Au final, votre plateforme en ligne dépend entièrement de la confiance que lui accordent ses utilisateurs. Le Trust and Safety affecte donc potentiellement tous les aspects de votre activité.

Comment intégrer les principes de Trust & Safety dans vos processus

Chaque entreprise est unique, et on ne peut pas faire de généralités sur les processus opérationnels de votre organisation qui permettront d’intégrer le Trust and Safety.

Tout contenu généré par les utilisateurs (y compris les commentaires, les évaluations et les listes de produits) qui influence vos processus commerciaux nécessite l’application de principes de Trust and Safety. Il faut aussi en tenir compte lors de la conception et de l’élaboration de nouveaux processus, de nouveaux services ou de nouvelles applications.

Les concepteurs doivent réfléchir sérieusement à ce qui pourrait nuire aux utilisateurs de votre plateforme.

Demandez-vous où se situent vos vulnérabilités face aux malfaiteurs, quelles mesures peuvent être prises pour réduire ces vulnérabilités et quelle conduite adopter en cas de crise.

Et si votre organisation opère au niveau international, n’oubliez pas qu’il existe tout un monde de menaces potentielles. Vos politiques de Trust & Safety peuvent varier d’un pays à l’autre, en fonction de ce qui est considéré comme acceptable ou approprié dans une culture donnée.

Elles devraient être disponibles dans toutes les langues dans lesquelles vous opérez (vos directives communautaires, par exemple, devraient être traduites).

Vous aurez également besoin de modérateurs de contenu dans tous les pays et toutes les langues où vous exercez vos activités, afin d’identifier les nuances linguistiques et culturelles qui déterminent si un contenu généré par les utilisateurs est approprié ou non.

Mesures et indicateurs clés de performance

Il est essentiel de mesurer le succès des stratégies et des activités de votre équipe, à la fois pour optimiser les performances de l’équipe et pour obtenir le soutien continu des autres parties prenantes.

Voici quelques indicateurs que vous devriez suivre pour déterminer l’impact de votre équipe et de vos actions :

  • La proportion des utilisateurs de votre plateforme exposés à des violations
  • La proportion d’utilisateurs qui enfreignent les directives
  • Le pourcentage de contenu signalé comme inapproprié
  • La précision avec laquelle vos systèmes automatiques de modération de contenu catégorisent le contenu (et l’évolution de cette précision au fil du temps, à mesure que ces systèmes reçoivent davantage de données)
  • Le temps de réponse de vos modérateurs humains entre le moment où une activité ou un contenu est signalé par un système automatique et celui où le ticket est fermé
  • Le nombre de tickets traités par les modérateurs individuels chaque heure
  • Le délai moyen pour atténuer les menaces de sécurité
  • L’impact de la mise en œuvre de vos mesures en matière de Trust and Safety sur la satisfaction des clients (suivi au moyen de mesures telles que le NPS et les scores moyens d’évaluation des clients)

Grâce à cette liste, vous devriez pouvoir mesurer le succès de vos initiatives en matière de Trust and Safety.

Mais concrètement, qu’est-ce qu’une stratégie efficace ? Prenons quelques exemples éloquents.

Études de cas sur le Trust and Safety

Nous allons examiner quelques exemples illustrant comment, avec notre aide, nos clients ont mis en œuvre des politiques de Trust and Safety sur leurs plateformes mondiales.

La modération de contenu multilingue pour un leader des réseaux sociaux format vidéo

En tant que première plateforme de vidéos musicales en ligne, cette entreprise avait besoin de mettre en place une modération de contenu précise et opportune sur un marché indien multilingue à croissance rapide.

C’est là que nous sommes intervenus. En alliant des modèles de déploiement mondiaux à des connaissances réglementaires et culturelles locales (le tout soutenu par l’IA), nous avons fourni une modération sur mesure pour les utilisateurs locaux dans l’ensemble des territoires indiens de notre client.

Nous avons recruté une équipe de 1 800 modérateurs à partir de notre pool de modérateurs de contenu en Inde et en Jordanie. Les critères de sélection étaient la maîtrise de la langue et la sensibilité culturelle, ainsi que la résilience, la rapidité, la précision et l’état d’esprit nécessaire pour évaluer les politiques de Trust and Safety de notre client.

Nos modérateurs ont reçu une formation continue sur les politiques, les valeurs, la culture et les directives de notre client. Nous avons également veillé au bien-être des modérateurs pour qu’ils conservent leur enthousiasme et leur capacité d’adaptation, même après avoir visionné de grandes quantités de contenus éventuellement dérangeants. Nous avons mis à leur disposition des psychologues de garde, un entraîneur sportif et un coach de yoga, des excursions régulières, un groupe de discussion et même une salle de relaxation zen.

Le résultat ? Au cours des quatre premiers mois de production, nous avons réduit de 44 % la taille de l’équipe de modération de notre client et atteint un taux de précision de 99,96 % dans les décisions en matière de modération. Qui plus est, notre projet s’est déroulé dans la bonne humeur et de manière sereine, et 74 % des membres de notre équipe ont déclaré qu’ils recommanderaient ce travail à leurs amis et à leur famille.

Accompagner The Sandbox dans la gestion des interactions dans le métavers

The Sandbox est le plus grand vendeur de biens immobiliers virtuels. Il fournit des espaces et des outils pour que les utilisateurs puissent créer des expériences virtuelles. Les marques et les autres créateurs peuvent acheter des terrains et concevoir leurs propres expériences, comme des fêtes, des concerts et des magasins de vêtements interactifs.

The Sandbox comprend que la création d’une expérience sûre et agréable est essentielle pour attirer les utilisateurs, c’est pourquoi nous avons formé un partenariat pour fournir des équipes d’ambassadeurs servant de guides et de gardiens au sein de l’expérience, ainsi que des services de modération traditionnels.

Faites du Trust and Safety le fondement de votre expérience client

Nous espérons que ce guide vous a aidé à réfléchir à la manière d’appliquer les principes de Trust and Safety à votre plateforme en ligne et aux activités de votre organisation. Il vous permettra, nous l’espérons, de suivre l’exemple des organisations présentées ci-dessus.

De nombreux éléments sont à prendre en compte. Le monde évolue rapidement et les organisations les plus importantes et les plus innovantes font souvent appel à des partenaires qui ont une longueur d’avance.

Webhelp est le premier prestataire de service à s’associer à la Trust & Safety Professional Association (TSPA). Cette association apporte son soutien à la communauté mondiale des professionnels de la Trust and Safety qui définissent et mettent en œuvre des principes de comportement et de contenu acceptables en ligne.

Nos modérateurs de contenu, tous membres de la TSPA, fournissent des services de modération à plus de 250 clients à travers le monde dans plus de 20 langues, assurant ainsi la fiabilité et la sécurité de leurs plateformes en ligne pour des milliards d’utilisateurs.

Nous contacter