Les plateformes doivent faire davantage pour protéger ceux qui nous protègent des contenus nuisibles

Les médias sociaux ont transformé la vie de milliards de personnes dans le monde entier en leur permettant d’établir de nouveaux liens et de partager des expériences. Mais malheureusement, ils se sont également révélés d’une efficacité alarmante pour la diffusion de contenus dangereux tels que les escroqueries, la pédopornographie, l’extrémisme, le terrorisme, les abus en ligne et la cyberintimidation. Ces risques pour le public sont réels, sérieux et bien documentés, et une multitude d’initiatives ont été mises en place pour réprimer les violations.

L’impact sur les modérateurs de contenu reçoit progressivement l’attention qu’il mérite, mais les initiatives ne sont pas toujours à la hauteur. Ce sont ces personnes qui, jour après jour, ont la responsabilité de surveiller, d’analyser et de réagir en permanence à des contenus pénibles, inquiétants et suspects.

moderateurs-protegent-leur-bien-etre

L’humain renforcé par l’IA

Compte tenu de la taille et de l’étendue des plateformes de médias sociaux – dont beaucoup dépendent du contenu généré par les utilisateurs (CGU) – il n’est pas réaliste de penser que toutes ces plateformes pourraient être instantanément modérées par des Hommes. Par exemple, Meta (anciennement Facebook) reçoit chaque jour trois millions de rapports sur du contenu, signalés par l’IA ou des utilisateurs. Et même cette marque – l’une des plus grandes de la planète – ne compte que 15 000 modérateurs de contenu employés directement ou indirectement dans le monde pour gérer les avis, les posts, les photos et les vidéos. Dans le même temps, un rapport publié en 2020 par l’école de commerce NYU Sterna indiquait que Twitter ne disposait que de 1 500 modérateurs humains pour gérer les 199 millions d’utilisateurs quotidiens mondiaux.

Avec des milliards d’utilisateurs sur les deux plateformes, cela représente une source énorme de stress et de surmenage. La solution idéale serait que les modérateurs humains et l’IA travaillent en synergie. Mais pour l’instant, ce sont les modérateurs humains qui doivent porter le poids de la communauté en ligne, car la dure vérité est que l’IA n’est pas en mesure de prendre en charge l’ensemble du travail – du moins, pas encore.

Des documents divulgués par Facebook en septembre 2021 ont révélé que ses systèmes automatisés ont du mal à gérer les discours de haine et les contenus terroristes. L’un des principaux écueils est que, bien que les systèmes d’IA fonctionnent dans plus de 50 langues, la plateforme est utilisée dans plus de 100 langues. Le propriétaire de la plateforme, Meta, développe actuellement son propre système d’IA, baptisé Meta AI Few-Shot Learner (FSL), qui a été déployé sur Facebook et Instagram. Sa vision à long terme est « d’atteindre une flexibilité et une efficacité d’apprentissage semblables à celles des humains ».

La création de ces IA est extrêmement complexe et fastidieuse, car des milliers d’éléments doivent être annotés avec précision pour que l’IA puisse les reconnaître et agir. Le système de Meta fait déjà des progrès de ce côté, car il a besoin de voir moins d’exemples pour identifier les messages problématiques, et il fonctionne dans plus de 100 langues.

Mais même Meta admet qu’il s’agit des « premiers jours » de ce qu’elle décrit comme des modèles d’IA intelligents et généralisés. De manière révélatrice, il souligne également : « Il y a un long chemin à parcourir avant que l’IA puisse comprendre des dizaines de pages de texte technique et savoir immédiatement et exactement comment l’appliquer ».

Ailleurs sur le marché, nous voyons d’autres signes de réels progrès de la part des fournisseurs indépendants du secteur. Ces solutions comprennent le contexte jusqu’à un certain point, fonctionnent dans n’importe quelle langue, gèrent le langage informel, l’argot ou le dialecte, et apprennent des modérateurs humains au fur et à mesure de leur travail.

Reconnaître la responsabilité de l’employeur

La réalité actuelle est que les technologies ne peuvent pas souffrir de la détresse causée par le balayage du contenu – mais l’humain oui. En tant qu’employeurs, les plateformes ont la responsabilité de préserver le bien-être des personnes, et les outsourceurs doivent les soutenir dans cette voie. Les modérateurs de contenu sont confrontés à une législation complexe concernant la suppression de contenus offensants, ils doivent respecter les délais légaux de suppression des messages, ainsi que les niveaux de service des marques. Sans oublier qu’ils agissent selon un impératif moral pour protéger les utilisateurs, en particulier les plus vulnérables comme les enfants.

Mais certains ont fait fausse route. Il a été largement rapporté que plusieurs modérateurs de contenu d’un outsourceur coté au NASDAQ auraient souffert de stress post-traumatique après avoir été témoins d’expériences vécues par d’autres, ce qui tend à entraîner de l’anxiété, une perte de sommeil, de la solitude et une dissociation.

On peut trouver des similitudes entre les modérateurs et les journalistes, les détectives spécialisés dans le trafic sexuel et les urgentistes. Les impacts communs de ces professions sont des symptômes de type SSPT, anxiété et dépression.

De nombreux modérateurs sont confrontés à un assaut quotidien de messages inquiétants, remplis de discours haineux, d’attaques violentes et de contenus graphiques. Dans les grandes entreprises, ils ne se voient offrir que peu ou pas de soutien ou conseil. Même après avoir quitté leur poste, certains ont développé des troubles de la santé mentale et n’ont toujours pas reçu de soutien.

Définir la norme

Chez Webhelp, nous avons beaucoup investi dans ce que nous pensons être une approche innovante de la modération de contenu en ligne pour nos clients, tout en donnant la priorité à la santé mentale de nos collaborateurs. Cela signifie qu’il faut reconnaître et mettre en place une série de services et de mécanismes de soutien pour surveiller et traiter de manière proactive les pressions uniques auxquelles sont soumis les modérateurs de contenu.

En tant qu’entreprise privilégiant l’humain, notre mission est de nous assurer que chaque membre de l’équipe se sente heureux, apprécié et reconnu. C’est une philosophie qui sous-tend tout ce que nous faisons. Et parce que nous comprenons que le bien-être est un facteur clé pour permettre à nos collaborateurs de donner le meilleur d’eux-mêmes, nous avons conçu notre propre programme sur mesure comprenant le bien-être, la technologie et la psychothérapie.

Le bien-être comme mode de travail

Nous savons que le bien-être est une préoccupation pour nos collaborateurs. Nous avons donc mis en œuvre plus de 80 nouvelles initiatives début 2021, toutes destinées à protéger la santé physique et mentale de nos modérateurs de contenu.

Pour cela, il est essentiel d’être proactif et de savoir reconnaître quand les choses ne vont pas ou quand un membre de notre équipe a besoin d’aide.

Nous avons mis en place des centres de bien-être, où les conseillers peuvent accéder à des soins et à un soutien psychologique – sur place tout au long de la journée et en dehors des heures de travail, puisque des lignes d’assistance externes sont à leur disposition 24 heures sur 24 et 7 jours sur 7. Ce dispositif est complété par notre programme WebHEALTH, qui met en place des séances de fitness, de massages et de méditation pour toutes nos équipes. Nous avons également mis en place une série de programmes préventifs de santé mentale.

Nous constatons déjà des résultats positifs, notamment une augmentation de la fidélité et de la productivité. Par exemple, depuis le lancement d’un programme visant à encourager les collaborateurs à partager leurs expériences, nous avons constaté une réduction de 50% de l’absentéisme lié à la santé mentale. Maintenant, dans le cadre de notre intention d’étendre ces services, nous sommes en train d’améliorer nos solutions internes avec un acteur externe du bien-être au travail.

Solutions psychologiques

Notre état d’esprit et nos pensées conscientes ont une influence considérable sur notre état physique. C’est la raison pour laquelle nous avons mis en place plusieurs projets et services soigneusement liés les uns aux autres et basés sur des initiatives de bien-être psychologique et de conseil.

Plus important encore, il s’agit d’un outil crucial qui nous aide à identifier toute personne susceptible de souffrir d’une mauvaise santé mentale et à traiter tout problème aussi rapidement que possible. En cas de besoin, nous pouvons offrir un soutien de suivi allant de réunions informelles avec les chefs d’équipe à des rendez-vous avec des psychologues externes.

La technologie au service du bien-être

Webhelp associe l’expertise humaine à la technologie, ce qui est au cœur de notre proposition de valeur.

En plus de gérer la quantité de contenu sensible que chaque modérateur voit quotidiennement, notre outil People Analytics, piloté par l’IA, sert de système d’alerte précoce et sophistiqué qui protège les modérateurs en temps réel. Le système surveille les signes de difficultés potentielles, tels que l’absence et la précision, et les combine avec les informations tirées des questionnaires quotidiens pour identifier des schémas de comportement à peine perceptibles qui pourraient être des signaux d’alarme. Le système attribue un « score de bien-être » à nos ressources et peut alerter les responsables d’équipes lorsque ce score devient trop faible, ce qui leur permet d’être prêts et bien préparés – si et quand ils doivent intervenir.

Notre métier est une priorité

Nous développons continuellement nos technologies, mais nous ne pouvons pas prévoir le jour où les machines pourront remplacer ces types d’interactions et l’expertise de nos équipes. Nous continuerons donc à soutenir nos modérateurs de contenu dans l’accomplissement de ce travail difficile.

 

Car les protéger, c’est protéger l’ensemble de la communauté.

PARTAGER