Online-Plattformen müssen diejenigen, die uns vor schädlichen Inhalten bewahren, stärker schützen

Social Media hat das Leben von Milliarden von Menschen auf der ganzen Welt durch die Schaffung neuer Verbindungen und gemeinsamer Erfahrungen verändert. Leider erwiesen sie sich auch als alarmierend effektive Plattformen für die Verbreitung gefährlicher Inhalte in Form von Betrugsfällen, Kinderpornografie, Extremismus, Terrorismus, Online-Missbrauch und Cyber-Mobbing. Diese Risiken für die Öffentlichkeit sind real, schwerwiegend und umfassend dokumentiert, und es gibt eine Vielzahl von Initiativen, um gegen Verstöße vorzugehen.

Die Folgen auf Content Moderatoren erhalten zunehmend mehr Aufmerksamkeit. Aber die Initiativen sind dem nicht immer gewachsen – Content Moderatoren sind die Helden im Hintergrund, die uns schützen. Sie sind es, die Tag für Tag die Verantwortung für die kontinuierliche Überwachung, Analyse und Reaktion auf beunruhigende, verstörende und verdächtige Inhalte übernehmen.

content-moderator-protect-their-wellbeing

Unterstützung durch KI

Aufgrund der schieren Größe und des Umfangs der Social Media Plattformen – von denen viele auf User Generated Content (UGC) also von Nutzern erstellte Inhalte angewiesen sind – ist es unrealistisch, dass alle Plattformen bzw. Inhalte sofort und ausschließlich von Menschen moderiert werden. Meta (ehemals Facebook) beispielsweise verzeichnet täglich drei Millionen Meldungen zu Inhalten, die von KI oder Nutzern markiert wurden. Und selbst diese Marke – eine der größten der Welt – beschäftigt weltweit gerade einmal 15.000 direkt oder indirekt angestellte Moderatoren, die Rezensionen, Beiträge, Bilder und Videos managen. In einem Bericht der Business School NYU Sterna aus dem Jahr 2020 heißt es, dass Twitter nur 1.500 menschliche Moderatoren beschäftigt, die täglich für 199 Millionen User auf der ganzen Welt zuständig sind.

Bei Milliarden von Usern auf beiden Plattformen birgt dies genügend Potential für Stress und Überforderung. Die ideale Voraussetzung für die Zusammenarbeit von menschlichen Moderatoren und KI. Doch im Moment müssen menschliche Moderatoren nach wie vor die Hauptlast für die Online-Community tragen – denn die Realität zeigt, dass KI diese Aufgabe nicht vollständig übernehmen kann, zumindest noch nicht.

Im September 2021 wurden Dokumente von Facebook veröffentlicht, aus denen hervorging, dass die automatisierten Systeme des Unternehmens Schwierigkeiten haben, Hassreden und terroristische Inhalte korrekt zu verarbeiten. Ein Hauptproblem bestand darin, dass KI-Systeme zwar in mehr als 50 Sprachen eingesetzt werden, die Plattform jedoch in mehr als 100 Sprachen genutzt wird. Plattformbetreiber Meta entwickelt nun sein eigenes KI-System mit dem Namen Meta AI Few-Shot Learner (FSL), das bereits auf Facebook und Instagram eingesetzt wird. Die langfristige Vision des Unternehmens ist es, „eine menschenähnliche Lernflexibilität und -effizienz zu erreichen“.

Die Entwicklung dieser KI ist äußerst komplex und langwierig, da Tausende von Beiträgen sorgfältig annotiert werden müssen, damit die KI sie selbstständig erkennen und entsprechend handeln kann. Das System von Meta macht in dieser Hinsicht bereits Fortschritte, da es eine geringere Anzahl von Beispielen benötigt, um problematische Beiträge zu erkennen, und in mehr als 100 Sprachen einsetzbar ist.

Doch selbst Meta räumt ein, dass es sich bei dem, was es als intelligente, universelle KI-Modelle bezeichnet, um das „Anfangsstadium“ handelt. Bezeichnenderweise weist es auch darauf hin: „Es liegt noch ein langer Weg vor uns, bis KI Dutzende von Seiten Richtlinientext verstehen und unmittelbar wissen kann, wie man sie richtig umsetzt.“

Auch in anderen Bereichen des Marktes sehen wir weitere positive Anzeichen für echte Fortschritte bei unabhängigen Branchenanbietern. Diese Lösungen verstehen bis zu einem gewissen Grad den Kontext, funktionieren in jeder Sprache, verarbeiten Umgangssprache, Slang oder Dialekt und lernen bei ihrer Arbeit von menschlichen Moderatoren.

Verantwortung der Arbeitgeber

Die gegenwärtige Situation zeigt, dass Maschinen durch das Scannen von Inhalten nicht zu Schaden kommen können – Menschen hingegen schon. Und als globale Arbeitgeber haben Online-Plattformen die Verantwortung, das Wohlergehen der Menschen zu schützen, weshalb BPOs sie in dieser Hinsicht unterstützen müssen. Content Moderatoren müssen komplexe Gesetze zur Entfernung anstößiger Inhalte befolgen, gesetzliche Fristen zur Löschung von Beiträgen einhalten und die SLAs der Marken erfüllen. Nicht zu vergessen die moralische Verpflichtung, User – und insbesondere gefährdete Gruppen wie Kinder – zu schützen.

Doch einige BPOs haben dies versäumt. Berichten zufolge sollen mehrere Content Moderatoren eines am NASDAQ notierten BPO sekundäre, traumatische Stressbelastungen erlitten haben, weil sie Zeuge eines traumatischen Erlebnisses aus erster Hand wurden, was zu Angstzuständen, Schlafverlust, Vereinsamung und Dissoziation führte.

Ähnlichkeiten lassen sich sowohl bei Moderatoren als auch bei Journalisten, Detektiven im Bereich Sexualdelikte und Notruf-Dispatcher feststellen. In diesen Berufen treten häufig PTBS-ähnliche Symptome, Angstzustände und Depressionen auf.

Viele Moderatoren sind täglich einem Ansturm verstörender Beiträge in Form von Hasstiraden, gewalttätigen Angriffen und grafischen Inhalten ausgesetzt. In größeren Unternehmen wird ihnen kaum bis keine Unterstützung oder Beratung angeboten, und selbst nach ihrem Ausscheiden haben einige Mitarbeiter psychische Störungen entwickelt, ohne jegliche Unterstützung erhalten zu haben.

Standards setzen

Bei Webhelp investieren wir verstärkt in ein Konzept, das unserer Meinung nach führend bei der Moderation von Online-Inhalten für unsere Kunden ist. Gleichzeitig legen wir großen Wert auf die psychische Gesundheit all unserer Mitarbeiter. Konkret bedeutet dies, dass wir den besonderen Druck, dem Moderatoren von Inhalten ausgesetzt sind, erkannt und eine Reihe von Angeboten und Support-Mechanismen zur proaktiven Überwachung und Bewältigung eingeführt haben.

Als ein Unternehmen, bei dem der Mensch an erster Stelle steht, haben wir es uns zum Ziel gemacht, dafür zu sorgen, dass sich jedes Teammitglied wohl, wertgeschätzt und anerkannt fühlt. Das ist eine Philosophie, die sich in allen unseren Aktivitäten widerspiegelt. Und weil wir wissen, dass das Wohlbefinden ein so wichtiger Faktor ist, damit unsere Mitarbeiter optimal arbeiten können, haben wir ein eigenes, maßgeschneidertes Programm entwickelt, das die Themen Wellbeing, Technologie und Psychotherapie einschließt.

Wellbeing als Arbeitsweise

Wir wissen, dass das Wohlbefinden unserer Mitarbeiter eine entscheidende Rolle spielt. Deshalb haben wir Anfang 2021 mehr als 80 neue Initiativen eingeführt, die alle darauf abzielen, die körperliche und geistige Gesundheit unserer Content Moderatoren zu schützen.

Eine wichtige Voraussetzung hierfür ist es, proaktiv zu sein und zu erkennen, wenn etwas nicht in Ordnung ist oder eines unserer Teammitglieder Unterstützung benötigt.

Wir haben Wellness-Zentren eingerichtet, in denen unsere Kundenberater psychologische Betreuung und Unterstützung in Anspruch nehmen können – während des Tages vor Ort und außerhalb der Arbeitszeit, durch externe Helplines, die rund um die Uhr zur Verfügung stehen. Ergänzt wird dies durch unser WebHEALTH-Programm, das sich auf Fitness-Workouts, Massagen und Meditationskurse für alle unsere Teams konzentriert. Außerdem haben wir eine Reihe von Präventionsprogrammen für die psychische Gesundheit eingeführt.

Wir sehen bereits positive Ergebnisse, einschließlich einer Steigerung bei der Mitarbeiterloyalität und der Produktivität. Seit der Einführung eines Programms, das die Mitarbeiter dazu ermutigt, Erfahrungen auszutauschen, haben wir beispielsweise einen 50-prozentigen Rückgang der Fehlzeiten aufgrund psychischer Probleme festgestellt. Im Rahmen unserer Strategie, dieses Angebot zu erweitern, planen wir eine Ergänzung unserer internen Lösungen durch das Angebot eines externen Partners für das Wohlbefinden am Arbeitsplatz.

Psychologische Lösungen

Unser seelisches Befinden und unsere bewussten Gedanken haben einen großen Einfluss auf unser körperliches Befinden. Deshalb haben wir mehrere sorgfältig aufeinander abgestimmte Einrichtungen und Angebote implementiert, die sich auf Initiativen für das seelische Wohlbefinden und auf die Beratung stützen.

Vor allem aber ist es ein wichtiges Tool, das uns ermöglicht, psychische Erkrankungen zu erkennen und schnellstmöglich Maßnahmen zu ergreifen. Wenn erforderlich, bieten wir eine Nachbetreuung an, die von informellen Treffen mit Teamleitern bis hin zu Terminen mit externen Psychologen reichen.

Technologie für den guten Zweck

Webhelp vereint menschliche Expertise mit Technologie, der Kern unseres Nutzenversprechens.

Unser KI-gesteuertes People Analytics-Tool managt nicht nur die Menge an sensiblen Inhalten, die jeder einzelne Moderator täglich sieht, sondern verfügt auch über ein ausgeklügeltes Frühwarnsystem, dass das tägliche Wohlbefinden der Moderatoren in Echtzeit überprüft. Das System erkennt Anzeichen für potenzielle Beeinträchtigungen, wie beispielsweise durch Abwesenheit und mangelnde Genauigkeit. Es kombiniert diese mit Insights, die auf der Grundlage von täglich durchgeführten Fragebögen basieren, und identifiziert kaum wahrnehmbare Veränderungen im Verhalten, die auf ein Warnsignal hindeuten. Das System weist unseren Ressourcen einen „Wellness-Score“ zu und warnt die Teamleiter, wenn sich dieser Wert verschlechtert, damit sie rechtzeitig eingreifen können, falls dies erforderlich ist.

Unser wichtigster Auftrag

Wir entwickeln unsere Technologien kontinuierlich weiter, aber wir können uns nicht vorstellen, dass Maschinen die zwischenmenschliche Interaktion und das Know-how unserer Mitarbeiter vollständig ersetzen werden. Aus diesem Grund unterstützen wir unsere Content Moderatoren auch weiterhin bei ihrer unglaublich anspruchsvollen Arbeit.

Denn sie zu schützen bedeutet, die gesamte Community zu schützen.

SHARE