SHARE
As plataformas online devem fazer mais para proteger as pessoas que nos protegem de conteúdos nocivos
A mídia social transformou a vida de bilhões de pessoas em todo o mundo por meio de novas conexões e experiências compartilhadas. Mas, infelizmente, também provou ser extremamente eficaz para espalhar conteúdo perigoso como golpes, pornografia infantil, extremismo, terrorismo, abuso online e bullying cibernético. Esses riscos para o público são reais, sérios e bem documentados, com uma infinidade de iniciativas para reprimir as violações.
O impacto nos moderadores de conteúdo está gradualmente recebendo a atenção que merece, mas as iniciativas nem sempre estão à altura – eles são os heróis que mantêm a linha. Essas são as pessoas que, dia após dia, têm a responsabilidade de monitorar, analisar e responder constantemente a materiais perturbadores e suspeitos.

Humanos aprimorados pela IA
O tamanho e o escopo das plataformas de mídia social – muitas das quais dependem de conteúdo gerado pelo usuário (UGC) – significa que é irreal que todas elas agora possam ser instantaneamente moderadas apenas por pessoas. Por exemplo, o Meta (anteriormente conhecido como Facebook) recebe três milhões de relatórios de conteúdo todos os dias, sinalizados por IA ou usuários. E mesmo esta marca – uma das maiores do planeta – tem apenas 15.000 moderadores de conteúdo empregados direta ou indiretamente em todo o mundo para gerenciar resenhas, postagens, fotos e vídeos. Enquanto isso, um relatório de 2020 da escola de negócios NYU Sterna sugeriu que o Twitter tinha apenas 1.500 moderadores humanos para lidar com 199 milhões de usuários diários em todo o mundo.
Com bilhões de usuários em ambas as plataformas, essas receitas potenciais soam como estresse e opressão. A solução ideal para moderadores humanos e IA trabalharem em sinergia. Mas, por enquanto, os moderadores humanos devem arcar com o peso da comunidade online – porque a dura verdade é que a IA não é capaz de fazer todo o trabalho – pelo menos, não agora.
Documentos vazados do Facebook em Setembro de 2021 revelaram que seus sistemas automatizados lutam para lidar com discurso de ódio e conteúdo de terrorismo. Um obstáculo principal foi que, embora os sistemas de IA operem em mais de 50 idiomas, a plataforma é usada em mais de 100 idiomas. O proprietário da plataforma Meta, agora está desenvolvendo seu próprio sistema de IA apelidado de Meta AI Few-Shot Learner (FSL), que foi lançado no Facebook e no Instagram. Sua visão de longo prazo é “obter flexibilidade e eficiência de aprendizagem semelhante à humana”.
A criação dessa IA é extremamente complexa e tediosa, pois milhares de itens precisam ser anotados com precisão para que a IA os reconheça e aja de forma independente. O sistema da Meta já está avançando nesse lado, pois precisa ver menos exemplos para identificar postagens problemáticas e funciona em mais de 100 idiomas.
Mas até a Meta admite que esses são os “primeiros dias” do que descreve como modelos inteligentes e generalizados de IA. De forma reveladora, ele também aponta: “Há um longo caminho pela frente antes que a IA possa compreender dezenas de páginas de texto de políticas e saber imediatamente exatamente como aplicá-las”.
Em outras partes do mercado, vemos mais sinais positivos de progresso real por parte de fornecedores independentes do setor. Essas soluções entendem o contexto até certo ponto, funcionam em qualquer idioma, lidam com linguagem informal, gíria ou dialeto e aprendem com moderadores humanos enquanto trabalham.
Reconhecendo a responsabilidade dos empregadores
A realidade atual é que as máquinas não podem sofrer com a digitalização de conteúdo – mas as pessoas podem. E, como empregadores globais, as plataformas online têm a responsabilidade de proteger o bem-estar das pessoas, e os BPOs precisam apoiá-los nessa direção. Os moderadores de conteúdo estão lidando com uma legislação complexa em relação à remoção de conteúdo ofensivo, trabalhando com prazos legais para remover postagens, bem como os SLAs das marcas. Sem mencionar a ação de um imperativo moral para proteger os usuários, principalmente em grupos vulneráveis como crianças.
Mas alguns BPOs entenderam muito mal. Foi amplamente divulgado que vários moderadores de conteúdo em um BPO listado na NASDAQ supostamente sofreram de estresse traumático secundário, resultado de testemunhar um trauma em primeira mão experimentado por outras pessoas, o que tende a resultar em ansiedade, perda de sono, solidão e dissociação.
Semelhanças podem ser encontradas entre moderadores e jornalistas, detetives de tráfico sexual e despachantes de emergência. Com sintomas comuns dessas profissões desenvolvendo sintomas do tipo TEPT, ansiedade e depressão.
Muitos moderadores enfrentam um ataque diário de postagens perturbadoras cheias de discurso de ódio, ataques violentos e conteúdo gráfico. Eles recebem pouco ou nenhum apoio ou aconselhamento em grandes empresas e, mesmo depois de saírem, alguns desenvolveram transtornos de saúde mental e ainda não receberam nenhum apoio.
Definindo o padrão
Na Webhelp, investimos pesadamente no que consideramos uma abordagem líder para moderar conteúdo online para clientes, priorizando a saúde mental de nosso pessoal. Isso significa reconhecer totalmente e implementar uma série de serviços e mecanismos de suporte para monitorar e lidar proativamente com as pressões exclusivas que os moderadores de conteúdo sofrem.
Como uma empresa que prioriza as pessoas, nossa missão declarada é garantir que todos os membros da equipe se sintam felizes, valorizados e reconhecidos. É uma filosofia que sustenta tudo o que fazemos. E porque entendemos que o bem-estar é um fator tão importante para permitir que nossos funcionários dêem o melhor de si, criamos nosso próprio programa personalizado que inclui bem-estar, tecnologia e psicoterapia.
Bem-estar como forma de trabalhar
Aprendemos que o bem-estar é uma preocupação de nossos colaboradores, por isso implementamos mais de 80 novas iniciativas no início de 2021 – todas voltadas para a proteção da saúde física e mental de nossos moderadores de conteúdo.
Uma parte fundamental disso é ser proativo e ser capaz de reconhecer quando as coisas não estão bem ou quando um dos membros da nossa equipe precisa de ajuda.
Introduzimos centros de bem-estar, onde os consultores podem acessar atendimento e suporte psicológico – no local durante todo o dia e fora do horário de trabalho, pois linhas de apoio externas 24 horas por dia, 7 dias por semana, estão disponíveis para eles. Isto é complementado pelo nosso programa WebHEALTH, que aposta em treinos de fitness, massagens e sessões de meditação para todas as nossas equipas. Também implementamos uma parcela de programas preventivos de saúde mental.
Já estamos vendo resultados positivos, incluindo um aumento na lealdade e produtividade. Por exemplo, desde o lançamento de um esquema para incentivar os funcionários a compartilhar experiências, observamos uma redução de 50% no absenteísmo relacionado à saúde mental. Agora, como parte de nossa intenção de expandir esses serviços, estamos aprimorando nossas soluções internas com um agente externo de bem-estar no local de trabalho.
Soluções psicológicas
Nosso estado de espírito e pensamentos conscientes têm uma enorme influência sobre como nos sentimos fisicamente. É por isso que implementamos várias instalações e serviços cuidadosamente interligados com base em iniciativas e aconselhamento de bem-estar psicológico.
Mais importante ainda, é uma ferramenta crucial que nos ajuda a identificar qualquer pessoa que possa estar sofrendo de problemas de saúde mental e a resolver quaisquer problemas o mais rápido possível. Sempre que necessário, podemos oferecer suporte de acompanhamento que vai desde reuniões informais com líderes de equipe, até consultas com psicólogos externos.
Tecnologia pelo bem
A Webhelp combina experiência humana com tecnologia, e isso é fundamental para nossa proposta de valor.
Além de gerenciar a quantidade de conteúdo confidencial que cada moderador individual vê diariamente, nossa ferramenta People Analytics orientada por IA oferece um sofisticado sistema de alerta antecipado que monitora o bem-estar diário dos moderadores em tempo real. O sistema monitora sinais de possíveis dificuldades, como ausência e precisão, e combina isso com insights de questionários diários para identificar até mesmo padrões de comportamento quase imperceptíveis que podem ser sinais de alerta. O sistema atribui uma ”pontuação de bem-estar” aos nossos recursos e pode alertar os líderes humanos da equipe quando ela fica muito baixa, permitindo que eles estejam prontos e bem preparados – se ou quando precisarem intervir.
Nosso trabalho número um
Estamos desenvolvendo continuamente nossas tecnologias, mas não podemos prever um momento em que as máquinas possam substituir completamente o toque humano e a experiência de nosso pessoal. Portanto, continuaremos a apoiar nossos moderadores de conteúdo na realização de um trabalho incrivelmente difícil.
Porque protegê-los significa proteger toda a comunidade.