TikTok schadelijk voor mentale gezondheid jongeren

[Triggerwarning: depressie en zelfmoord]

Het aanbevelingssysteem voor de inhoud en het onderliggende bedrijfsmodel van TikTok vormen een gevaar voor jonge gebruikers van het platform. Dit komt omdat informatie over depressie en zelfmoord al bestaande problemen met de mentale gezondheid dreigt te verergeren. Dit blijkt uit twee rapporten die Amnesty International vandaag uitbracht.

De twee rapporten – Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation en I Feel Exposed: Caught in TikTok’s Surveillance Web – belichten de negatieve effecten die kinderen en jongeren ervaren als zij TikTok gebruiken. Dit wordt veroorzaakt door het systeem van TikTok dat bepaalde content aanbeveelt evenals het onderliggende bedrijfsmodel. De bevindingen zijn het resultaat van een gezamenlijk technisch onderzoek met onze partners bij het Algorithmic Transparency Institute (ATI) en de National Conference on Citizenship and AI Forensics.

‘Het onderzoek toont de manipulatieve en verslavende manier waarop TikTok werkt. Die werkwijze is bedoeld om gebruikers zo lang mogelijk op het platform te houden. Het laat ook zien dat het algoritmische systeem dat content aanbeveelt, kinderen en jongeren met mentale problemen blootstelt aan ernstige risico’s op schade’, zegt Lisa Dittmer van Amnesty International.

‘Voor jou’-pagina

De ‘Voor jou’-pagina van TikTok is een sterk gepersonaliseerde en oneindig scrollbare pagina met inhoud die algoritmes aanbevelen. De inhoud is uitgekozen om weer te geven wat het systeem heeft afgeleid als de interesses van een gebruiker.

Voor de rapporten werd technisch onderzoek uitgevoerd met meer dan dertig geautomatiseerde accounts die leken op de accounts van 13-jarigen in Kenia en de Verenigde Staten. Daarmee hebben de onderzoekers de effecten van het aanbevelingssysteem van TikTok op jonge gebruikers gemeten. Daarnaast hebben de onderzoekers een aanvullende, handmatig simulatie uitgevoerd met een account in Kenia, de Filipijnen en de VS.

Jacht om aandacht vast te houden schadelijk

Amnesty’s rapport Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation (Hoe TikTok zelfbeschadiging en zelfmoordgedachten aanmoedigt) beschrijft hoe de niet aflatende jacht van TikTok naar de aandacht van jonge gebruikers bij hen mentale gezondheidsproblemen dreigt te verergeren, zoals depressie, angst en zelfbeschadiging.

Het technische onderzoek liet zien dat na 5-6 uur op TikTok bijna één op de twee getoonde video’s gerelateerd was aan de mentale gezondheidsproblematiek en mogelijk schadelijk was. Dat is zo’n tien keer meer dan van accounts die geen interesse hebben in iemands mentale gezondheid.

Het effect was nog sterker bij de testaccounts die 13-jarige gebruikers nabootsten in Kenia, de Filipijnen en de Verenigde Staten. Na 3 tot 20 minuten bleek meer dan de helft van de video’s in de ‘Voor jou’-pagina gerelateerd te zijn aan de mentale gezondheidsproblematiek. Binnen een uur verschenen meerdere aanbevolen video’s die zelfmoord romantiseerden, normaliseerden of zelfs aanmoedigden.

Ontworpen om verslavend te zijn

TikTok is zo ontworpen dat ongezond gebruik van de app wordt aangemoedigd, blijkt uit discussies in focusgroepen, interviews en testverslagen van kinderen in Kenia, de Filipijnen en de VS, evenals uit bewijs van onderzoek naar gezondheidsschade door sociale media.

*Luis, een 21-jarige student in Manilla bij wie een bipolaire stoornis is vastgesteld, vertelde Amnesty International over zijn ervaring met de ‘Voor jou’-pagina van TikTok: ‘Het is een konijnenhol omdat het begint met slechts één video. Als één video je aandacht weet te trekken, zelfs als je hem niet leuk vindt, wordt hij de volgende keer dat je TikTok opent naar je gebumpt en omdat hij je bekend voorkomt, bekijk je hem opnieuw en dan stijgt de frequentie ervan in je pagina exponentieel.’ (Met het konijnenholeffect wordt verwezen naar het boek Alice in Wonderland. Door een val in een konijnenhol kwam Alice in een wereld terecht waar alles anders was. Haar waarneming wordt beïnvloed. Met bumpen wordt bedoeld dat reacties op internet opnieuw geplaatst worden waardoor het onderwerp bovenaan de pagina blijft staan.)

Een ander legde uit: ‘De inhoud die ik zie, zorgt ervoor dat ik [nog] meer ga piekeren, zoals video’s waarin iemand ziek is of een zelf een diagnose stelt. Het beïnvloedt mij mentaal en geeft me het gevoel dat ik dezelfde symptomen heb en verergert mijn angst. En ik zoek ze niet eens op, ze verschijnen gewoon op mijn pagina.’

*Joyce, een 21-jarige vrouw in de Filipijnen zei: ‘Ik heb het [TikTok] een tijdje verwijderd omdat ik er erg verslaafd aan was… Ik bracht zoveel uren door op TikTok, alleen maar door video’s te scrollen, omdat je het niet kunt laten. Je blijft je afvragen wat er komt als je verder naar beneden scrollt.’

Invloed op sociale leven

Keniaanse kinderen en jongeren zeiden tegen de onderzoekers dat ze het gevoel hadden dat hun TikTok-gebruik hun schoolwerk en tijd met vrienden beïnvloedde. Het bracht hen er toe om tot ‘s avonds laat door hun pagina’s te scrollen in plaats van te gaan slapen. Deze getuigenissen werden bevestigd door verschillende jeugdpsychologen die Amnesty International raadpleegde.

Hoewel de individuele reacties van jongeren kunnen variëren, heeft TikTok, net als andere sociale mediaplatforms, ontwerpkeuzes gemaakt die bedoeld zijn om gebruikers zo lang mogelijk op hun platform te houden. ‘Ons onderzoek toont aan dat TikTok kinderen en jongeren kan blootstellen aan ernstige gezondheidsrisico’s door vast te blijven houden aan het huidige bedrijfsmodel. Dat is er meer op gericht om hen aan het platform te kluisteren dan om het recht op gezondheid van kinderen en jongeren te respecteren’, zegt Lisa Dittmer van Amnesty International.

Het surveillanceweb

Amnesty’s rapport I feel Exposed: Caught in TikTok’s Surveillance Web laat zien hoe TikTok‘s gegevensverzameling deze schadelijke praktijken in stand houden. Amnesty’s onderzoek toont aan dat het bedrijfsmodel van TikTok erop gericht is dat gebruikers op het platform blijven, zodat er steeds meer gegevens over hen verzameld kunnen worden.

‘TikTok richt zich op gebruikers, onder wie kinderen, met meer indringende gegevensverzamelingspraktijken in delen van de wereld waar de privacyregels minder streng zijn. Hierdoor krijgen kinderen in landen met zwakke regelgeving te maken met de ergste schendingen van hun recht op privacy’, zegt Lauren Armistead van Amnesty. ‘TikTok moet de rechten van al zijn jonge gebruikers respecteren, niet alleen in Europa, door wereldwijd alle gerichte reclame gericht op jongeren onder de 18 jaar te verbieden.’

TikTok moet ook stoppen met het vergaand personaliseren van de ‘Voor jou’-pagina en gebruikers in plaats daarvan laten kiezen of zij een gepersonaliseerde pagina willen en zo ja, op basis van welke interesses. Hoewel Amnesty International TikTok oproept om deze belangrijke stappen te nemen voor een bedrijfsmodel dat rechten respecteert, is er ook bindende regelgeving nodig om de rechten van kinderen en jongeren te beschermen. De beste manier om kinderen te beschermen tegen misbruik van hun persoonsgegevens online, is een wettelijk verbod op alle gerichte reclame op basis van de vergaande verzameling van persoonsgegevens.

In een reactie op onze bevindingen wees TikTok ons op zijn Community Guidelines. Daarin staat welke soorten inhoud zijn verboden en dus, indien gerapporteerd of anderszins geïdentificeerd, worden verwijderd van het platform. Daaronder valt ook inhoud ‘die zelfmoord en zelfbeschadiging toont, promoot of instructies hiervoor geeft, en gerelateerde uitdagingen en spelletjes’, ‘zelfmoord en zelfbeschadiging nepnieuws’ en ‘het delen van plannen voor zelfmoord en zelfbeschadiging’.

Geen due diligence

TikTok verklaarde dat het bezig is met het ontwikkelen van een ‘bedrijfsbreed due diligence-proces voor mensenrechten, waaronder het uitvoeren van periodieke mensenrechtentoetsen’. Het bedrijf gaf geen details over welke specifieke risico’s voor de mensenrechten van kinderen en jonge gebruikers het heeft geïdentificeerd. Dat TikTok op dit moment nog geen due dilligence-proces heeft, is een duidelijke tekortkoming in de verantwoordelijkheid van het bedrijf om mensenrechten te respecteren.

Achtergrond

Beide rapporten vormen een aanvulling op het bewijs dat in eerdere rapporten van Amnesty International is gepresenteerd. Surveillance Giants onthulde hoe het bedrijfsmodel van Facebook en Google inherent onverenigbaar is met het recht op privacy en een bedreiging vormt voor een reeks andere rechten, waaronder de vrijheid van meningsuiting, de vrijheid van gedachte en het recht op gelijkheid en om niet gediscrimineerd te worden.

Rapporten van Amnesty International over Myanmar, Myanmar: The social atrocity: Meta and the right to remedy for the Rohingya, en over Ethiopië, Ethiopia: Meta’s failures contributed to abuses against Tigrayan community during conflict in northern Ethiopia, onthullen hoe het bedrijfsmodel van Facebook enorme gevolgen kan hebben door het versterken van extreme content die aanzet tot geweld, haat en discriminatie en uiteindelijk bijdraagt aan ernstige mensenrechtenschendingen.

Samen dragen deze rapporten bij aan het groeiende bewijsmateriaal van Amnesty’s wereldwijde campagne voor verantwoord ondernemen en voor het herstel van mensenrechtenschendingen voor de op surveillance gebaseerde bedrijfsmodellen van Meta, Google, TikTok en andere Big Tech-platformen.

Meer over dit onderwerp