Maandag 26/09/2022

Stressberoep: online bewaker

Facebook zoekt 3.000 nieuwe moderatoren. Zij moeten voorkomen dat grove, gore en gewelddadige beelden het publiek meer bereiken. Maar wat doet zoiets met een werknemer?

Een Thaise man doodt eerst zijn baby en slaat vervolgens de hand aan zichzelf. Alles live te volgen op Facebook. Niet voor herhaling vatbaar, boog grote baas Mark Zuckerberg vorige week het hoofd. Hij is dringend op zoek naar 3.000 nieuwe medewerkers die de website moeten bewaken, wereldwijd en de klok rond. Daarmee verdriedubbelt hij zijn moderatorenteam.

Dat team fungeert als een soort bewakers, beschermheren en -vrouwen van de argeloze surfer. Maar zelf genieten ze dat voordeel natuurlijk niet. Zij zien alles. En dat kan zware gevolgen hebben, zo beweren twee gewezen werknemers van Microsoft. Zij hebben hun ex-werkgever aangeklaagd omdat ze aan hun job in het online safety team een posttraumatisch stresssyndroom hebben overgehouden. Een stoornis die vaak voorkomt bij oorlogsveteranen of mensen die getuige zijn geweest van grote gruweldaden.

Dat ene filmpje te veel

Typisch Amerikaans? Dat er een rechtszaak van komt, misschien wel, zegt Barbara Depreeuw. Maar dat je van een dergelijke job een trauma kunt oplopen, is allerminst overdreven. "Alles hangt af van wat je ziet, hoe vaak dat gebeurt en hoe groot je weerbaarheid is", zegt de klinisch psychologe die verbonden is aan The Human Link in Antwerpen. "Het is daardoor moeilijk te voorspellen bij wie het zich zal voordoen."

Depreeuw trekt de vergelijking met ambulanciers, brandweermannen of agenten die vaak op plaatsen delict komen. "Sommigen kunnen dat een hele loopbaan aan. Zij hebben dat weten te plaatsen en ervaren dat eerder als een soort van chronische stress. De meesten bouwen snel een redelijk hoge drempel op." Maar evengoed kan het zijn dat de veer toch eens een keer knapt, zegt Depreeuw. "Iedereen bouwt een rugzak op en ook al denk je dat je iets goed verwerkt hebt, dan nog kan er dat ene slachtoffer te veel zijn, dat ene filmpje dat de emmer doet overlopen. Het is dan dikwijls de opeenhoping die zijn tol eist, of een zaak die persoonlijk raakt die de druppel is."

Liever voorkomen

Niet alleen de inhoud is daarbij belangrijk, ook de vorm is heel bepalend. Bewegende beelden komen harder aan dan foto's, foto's hebben een grotere impact dan tekst. Bij Facebook België zijn ze zich daar erg van bewust, zegt woordvoerster Tineke Meijerman. De online moderatoren kunnen steeds een beroep doen op een psycholoog. "We moedigen dat zelfs aan. We willen liever voorkomen dan genezen."

Professionele hulp heeft Danielle, verantwoordelijk voor het forum van HLN.be, nooit nodig gehad. "Ik klap mijn laptop dicht en ik ben eigenlijk al vergeten wat ik die dag allemaal gelezen heb", zegt zij. "Ik doe dit werk nu twaalf jaar en collega's verklaren me gek dat ik dat zolang volhoud. Maar ik doe het graag. Ik zie het ook als een missie: ik bepaal wat er online komt, ik ben de baas en ik wil dat het proper blijft."

Toch raken sommige thema's ook haar dieper dan andere. De reacties op het Syrische jongetje Aylan, dat dood was aangespoeld. Of wanneer er weer eens 'opgeruimd staat netjes' geschreven wordt wanneer iemand gestorven is. De onversneden racistische praat, die went ook nooit.

Hoewel Danielle altijd veilig achter haar computer zit, komt het ook voor haar soms erg dichtbij. "Enkele jaren geleden kreeg ik regelmatig bedreigingen. Een man die me mailde dat hij wist wie ik was, waar ik werkte en dat hij me op de parking zou opwachten als ik hem van de site bleef weren. Daar is onze juridische dienst dan mee aan de slag gegaan. Nu heb ik alleen nog last van de toenemende verzuring in de reacties. Zelfs over artikels dat het mooi weer wordt, krijg je tegenwoordig gezeik."

De vraag is waarom moderatoren anno 2017 nog steeds alle bijdragen manueel moeten beoordelen. Het antwoord is redelijk simpel: softwareprogramma's kunnen wel een en ander filteren, maar zo slim als mensen zijn ze helaas nog steeds niet.

"Al is er wel goed nieuws op komst, met dank aan de snelle evoluties op het vlak van artificiële intelligentie", zegt technologiesocioloog Ben Caudron van de Erasmus Hogeschool in Brussel. "Helemaal zelfstandig zullen zulke systemen nooit kunnen werken, je gaat altijd mensen nodig hebben om waarden te bepalen, maar je zult in ieder geval niemand meer nodig hebben die al die beelden ook zelf moet bekijken. Wacht nog een paar jaar en we gaan heel wat minder mensen nodig hebben om die hele vuile jobs te moeten doen."

En in afwachting? "Ik raad alle moderatoren aan om op tijd nieuw werk te zoeken. Ik kan me niet voorstellen dat iemand er beter van wordt als hij dit werk jarenlang doet."

Meer over

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234