
Polen: Twitter/X faciliteerde de verspreiding van haat tegen lhbtqia+’ers
X (voorheen Twitter) heeft bijgedragen aan het verspreiden van doelgerichte haat tegen lhbtqia+-mensen in Polen. Dat stelt Amnesty International in een nieuw rapport dat het businessmodel van het social mediaplatform voor de eerste keer analyseert.
Trigger warning: het rapport bevat gevoelige informatie
Het rapport, ‘A Thousand Cuts’: Technology-Facilitated Gender-Based Violence Against Poland’s LGBTI Community on X, beschrijft hoe het businessmodel van X en gebreken in het modereren van de content op het platform bijdroegen aan een verspreiding van op gender gebaseerd geweld, gefaciliteerd door technologie ( de Engelse afkorting hiervoor is TfGBV).
Rechten geschonden
“Door nalatigheid bij het modereren van de inhoud en op het gebied van de mensenrechten, droeg X bij aan mensenrechtenschendingen tegen leden van de Poolse lhbtqia+-gemeenschap”, zegt Alia Al Ghussain van Amnesty International.
Deze gebreken, gekoppeld aan het niet te rechtvaardigen opheffen van maatregelen tegen kwetsende uitlatingen, hebben ertoe geleid dat X een broedplaats is geworden van TfGBV-uitlatingen.
Hierdoor zijn lhbtqia+-mensen aangetast in hun rechten op het gebied van vrijheid van meningsuiting, vrijheid van vereniging, non-discriminatie en hun mogelijkheid zich veilig te voelen in de maatschappij.
De lhbtqia+-gemeenschap in Polen heeft veel TfGBV ervaren, zoals bedreiging met geweld, online intimidatie, doxing (het delen van iemands privé-informatie online, met slechte bedoelingen). Dit heeft ertoe geleid dat sommige mensen X niet meer gebruiken uit angst om ontmaskerd of verstoten te worden.
Anti-lhbtqia+-content op X
Onderzoekers hebben samen met de National Conference on Citizenship’s Algorithmic Transparency Institute (ATI) 32 onderzoeksaccounts op social media aangemaakt. Tussen 1 en 31 maart 2025 hebben ze daarmee 163.048 tweets verzameld.
Daaruit kwam naar voren dat X veel anti-lhbtqia+-content bevat. Uit een steekproef van 1.387 tweets bleek dat homofobische en transfobische content op X vooral veel voorkomt bij volgers van politici die tegen lhbtqia+-rechten zijn.
Het zogenaamde ‘recommender’-systeem van X (voor jou aanbevolen) is gebaseerd op het maximaliseren van betrokkenheid van de gebruikers. Doordat het prioriteit geeft aan betrokkenheid, wordt het algoritme gestimuleerd om gebruikers content te laten zien die interactie genereert. Zelfs beveiligingsmaatregelen voorkomen niet dat schadelijke content die felle reacties oproept verder wordt verspreid, wat de cirkel van betrokkenheid verder in stand houdt.
Het is de eerste keer dat Amnesty International een op mensenrechten gebaseerde analyse heeft uitgevoerd van het businessmodel van X. De analyse laat zien dat het op surveillance gebaseerde businessmodel van X afhankelijk is van een invasieve manier van het verzamelen van gebruikersdata. Deze worden ingezet om hen tot doelwit te maken van advertenties, volgens hetzelfde recept als de businessmodellen van andere social mediaplatformen.
Door dit businessmodel, in combinatie met de gebrekkige moderatie van de content, loopt de lhbtqia+-gemeenschap in Polen groot risico om doelwit te worden van op gender gebaseerd geweld.
Impact op mensen
Het selecteren van lhbtqia+-gebruikers op X is gelinkt aan hun daadwerkelijke of veronderstelde gender, seksuele oriëntatie of uiting.
Aleksandra Herzyk, een kunstenaar en aseksuele vrouw uit Krakow, vertelde hoe ze door op haar gerichte haatspraak werd gedwongen X te verlaten, nadat ze werd lastiggevallen omdat ze informatie over haar borstverwijderingsoperatie had gedeeld en men er onterecht van uitging dat ze trans was.
“De dingen die je over jezelf leest – ze zijn niet waar, maar op de een of andere manier blijven ze in je hoofd zitten. Het is alsof je sterft door duizenden messteken”, vertelde ze.
“Er waren mensen die zeiden dat als ze me in de gym ofzo zouden zien, ze mijn botten zouden breken, en dat ze wensten dat iemand me zou vermoorden.”
Magda Dropek, een 42-jarige lhbtqia+- en abortus-activist, gebruikt X nog voor haar activisme, ondanks de negatieve effecten.
“Ik hou me bezig met activisme op het gebied van queer-zijn en politiek, vooral op Twitter/X. Ik weet dat het een belangrijk middel is voor communicatie en activisme.”
“In mijn ervaring, als ik [of anderen] iets delen over queer-zijn… zie ik vaak dat er een tweet is met 30 of 40 likes of vijf comments. En dan, een dag of een paar uur later, zijn er 500 [anti-lhbtqia+-]comments.”
“Het gaat er vooral om mensen het zwijgen op te leggen en om te laten zien dat dit niet jouw plaats is, dat jij moet zwijgen en niet zichtbaar moet zijn”, zei ze.
Maja Heban, een 34-jarige trans vrouw uit Warschau, zei:
“Wat jij [andere gebruikers] ook zeggen, het is ok – het vergelijken van lhbtqia+–ers met dieren, verkrachters, pedofielen. Alles kan.”
Rol van X in TfGBV
De chronische onderinvestering van X in het modereren van content in de Poolse taal heeft er in grote mate toe bijgedragen dat er niet goed is gereageerd op gender gebaseerd geweld in de content op het platform. In de rapporten van X is te zien dat het platform slechts twee Pools-sprekende content moderators heeft – een van hen met Pools als tweede taal.
Deze twee mensen zijn verantwoordelijk voor het in de gaten houden van een bevolking van 37,45 miljoen mensen en 5,33 miljoen X-gebruikers.
“Deze combinatie van weinig middelen, beleid en praktijk heeft ertoe bijgedragen dat X een platform is geworden dat vol zit met hatelijke content gericht tegen de lhbtqia+-gemeenschap”, zegt Alia Al Ghussain van Amnesty International.
Op 22 augustus 2024 schreef Amnesty International naar X met vragen over de zakelijke activiteiten van het bedrijf in Polen tussen 2019 en 2024. X heeft niet gereageerd.
Digital Services Act
Onder de Digital Services Act (DSA) van de EU moeten Very Large Online Platforms (VLOPs) zoals X systemische mensenrechtenrisico’s onderzoeken en beperken. Uit een risico-onderzoek van X uit 2024 blijkt dat er risico’s waren op haat en intimidatie op het platform, maar specifieke problemen voor de lhbtqia+-gemeenschap werden niet vermeld. Uit een onafhankelijke DSA-audit over het jaar 2024 bleek dat de risico-onderzoeken en schade-beperkende maatregelen van X zwak en ineffectief waren en geen beschermingsmaatregelen boden voor de algoritmische systemen.
De herhaaldelijke gebreken van X in Polen laten zien dat het bedrijf er niet in slaagt om zijn systemische risico’s voor mensenrechten aan te pakken.
Amnesty International nam op 25 juni 2025 weer schriftelijk contact op met X om de bevindingen uit dit rapport mee te delen en X een kans te geven om te reageren, maar ontving geen antwoord.
Oproep Amnesty International
De Europese Commissie moet de huidige onderzoeken naar X uitbreiden met onderzoek naar het vermogen van het bedrijf om efficiënt het risico van gender gebaseerd geweld aan te pakken. X moet dringend hervormingen introduceren om ervoor te zorgen dat het niet meer bijdraagt aan mensenrechtenschendingen van de lhbtqia+-gemeenschap in Polen. Daarnaast moet X meer mensen aannemen die in de Poolse taal content kunnen modereren, en een einde maken aan zijn op surveillance gebaseerde businessmodel.
Achtergrond
Amnesty International deed eerder onderzoek naar hoe het ontwerp en de beleidskeuzes van X bijdroegen aan valse berichten gericht op moslims en migranten in het Verenigd Koninkrijk, en hoe het platform een plek werd waar geweld tegen en misbruik van vrouwen om zich heen grijpt.
In 2019 publiceerde Amnesty International een baanbrekend onderzoek dat aantoonde dat de op surveillance gebaseerde businessmodellen van Google en Meta een bedreiging zijn voor mensenrechten. De conclusie van het rapport was dat de businessmodellen van beide bedrijven ‘inherent onverenigbaar’ waren met verschillende mensenrechten.