Rohingya vluchtelingen uit de staat Rakhine in Myanmar bij de grens met Bangladesh
© This content is subject to copyright.

Myanmar: algoritmes Facebook zetten aan tot geweld tegen Rohingya

De gevaarlijke algoritmes van Meta, de eigenaar van Facebook, en het roekeloze streven naar winst, droegen voor een belangrijk deel bij aan de schendingen die het leger van Myanmar beging tegen de Rohingya in 2017. Dat zegt Amnesty International in een nieuw rapport.

Het rapport, The Social Atrocity: Meta and the right to remedy for the Rohingya, beschrijft hoe Meta wist of zou moeten hebben geweten dat de algoritmes van Facebook de verspreiding van schadelijke tegen de Rohingya gerichte inhoud in Myanmar versterkten. Het bedrijf ondernam hiertegen echter geen actie.
‘In 2017 werden Rohingya gedood, gemarteld, verkracht en moesten ze vluchten na een campagne van etnische zuivering door de Myanmarese veiligheidsdiensten. In de maanden en jaren voorafgaand aan de schendingen, wakkerden de algoritmes van Facebook een storm van haat aan tegen de Rohingya die bijdroeg aan het geweld’, zegt Agnès Callamard, de secretaris-generaal van Amnesty International. ‘Terwijl het leger van Myanmar schendingen tegen de mensheid beging, profiteerde Meta van de haat die werd gecreëerd door de haatzaaiende algoritmes.’
‘Meta moet hiervoor ter verantwoording worden geroepen. Het bedrijf heeft nu de verantwoordelijkheid om slachtoffers van zijn roekeloze acties schadeloos te stellen.’
Sawyeddollah, een 21-jarige Rohingya-vluchteling, vertelde Amnesty International: ‘Ik zag veel vreselijke dingen op Facebook. En ik dacht gewoon dat de mensen die zulke berichten plaatsten slecht waren… Toen besefte ik dat het niet slechts deze mensen waren – degenen die de berichten posten – maar dat Facebook ook verantwoordelijk is. Facebook helpt hen door hun platform niet goed te onderhouden.’
De Rohingya zijn een etnische, voornamelijk islamitische minderheid in de noordelijke staat Rakhine in Myanmar. In augustus 2017 sloegen meer dan 700.000 Rohingya op de vlucht toen het leger van Myanmar een doelgerichte campagne startte met wijdverbreide en systematische moordpartijen, verkrachtingen en het verbranden van huizen. Dit geweld volgde op decennialange door de staat gesponsorde discriminatie, vervolging, en onderdrukking van de Rohingya, die Amnesty International eerder beschreef als apartheid.

Anti-Rohingya-echo

Meta maakt gebruik van algoritmische systemen die zijn gebaseerd op betrokkenheid van de gebruikers. Deze algoritmes sturen de news feed van Facebook, de ranking, aanbevelingen en groepsfuncties, en bepalen wat de gebruiker ziet op het platform. Meta profiteert ervan als Facebook-gebruikers zo lang mogelijk op het platform aanwezig zijn door het verkopen van gerichte advertenties. Het tonen van opruiende en schokkende content – zoals berichten die haatzaaien, aanzetten tot geweld, of kwaadaardig of discriminerend zijn – is een effectieve manier om mensen langer op het platform te houden. Als zodanig is de verspreiding en versterking van dit type content belangrijk voor het op surveillance gebaseerde model van Facebook.
In de maanden en jaren voorafgaand aan de onderdrukking, werd Facebook in Myanmar een ‘echokamer’ van tegen de Rohingya gerichte content. Mensen met banden met het leger uit Myanmar en radicale boeddhistische nationalistische groepen overspoelden het platform met anti-moslimberichten, en deelden berichten over een aanstaande machtsovername door moslims, en omschreven de Rohingya als ‘indringers’.
Een post die meer dan 1.000 keer werd gedeeld, bevatte de foto van een islamitische mensenrechtenverdediger met de beschrijving ‘nationale verrader’. Onder de commentaren bij dit bericht waren bedreigende en racistische opmerkingen geplaatst, zoals ‘Hij is een moslim. Moslims zijn honden en moeten worden doodgeschoten’, en ‘Laat hem niet leven. Zijn hele ras moet weg. De tijd tikt’.
Berichten die haatzaaiden en discriminerend waren, kwamen ook van de Myanmarese legertop en burgerleiders. Generaal Min Aung Hlaing, de leider van het leger van Myanmar, plaatste het volgende bericht op zijn Facebook in 2017: ‘We verklaren openlijk dat ons land absoluut geen Rohingya-ras heeft.’ In 2021 greep Min Aung Hlaing de macht in het land.
In juli 2022 gaf het Internationale Strafhof (ICJ) in een uitspraak aan dat het de jurisdictie heeft om door te gaan met een zaak tegen de overheid van Myanmar op basis van het Genocideverdrag. Amnesty International verwelkomt deze belangrijke stap naar het ter verantwoording roepen van de autoriteiten van Myanmar en blijft oproepen om hooggeplaatste leden van het Myanmarese leger voor de rechter te brengen voor hun rol in de misdrijven tegen de Rohingya.
In 2014 probeerde Meta een anti-haat-initiatief te steunen. Deze actie heette ‘Panzagar’ (bloemenspraak) en hield dat Facebook-gebruikers stickers konden plaatsen als reactie op content die haat of discriminatie propageerde. De stickers bevatten berichten als ‘Denk na voordat je deelt’, en ‘Wees niet de oorzaak van geweld’.
Activisten kwamen er echter snel achter dat de stickers ongewenste gevolgen hadden. De algoritmes van Facebook interpreteerden het gebruik van de stickers als een teken dat mensen een bericht leuk vonden en begonnen deze te promoten. In plaats van het aantal mensen dat een hatelijk bericht zagen te verkleinen, maakten de stickers deze berichten juist breder zichtbaar.
De Independent International Fact-Finding Missie van de VN concludeerde uiteindelijk dat de ‘rol van social media significant [was] in de schendingen in een land waar “Facebook het internet is”‘.
Mohamed Showife, een Rohingya-activist, zei: ‘De Rohingya dromen er gewoon van om te leven zoals iedereen in deze wereld… maar jij, Facebook, vernietigde onze droom.’

Facebook onderneemt geen actie

Het Amnesty-rapport laat zien hoe Meta er steeds niet in slaagt de nodige mensenrechtenwaarborgen in acht te nemen bij zijn activiteiten in Myanmar, ondanks de verplichtingen hiertoe onder internationale standaarden.
Interne onderzoeken uit 2012 laten zien dat Meta wist dat zijn algoritmes voor ernstige problemen in de echte wereld konden zorgen. Eigen onderzoek van Meta uit 2016 bevestigde duidelijk dat ‘onze aanbevelingssystemen het probleem van extremisme laten groeien’.
Tussen 2012 en 2017 kreeg Meta herhaaldelijk bezoek van lokale activisten of deden zij pogingen om met Meta in contact te komen. In die tijd werd het bedrijf gewaarschuwd dat het mogelijk bijdroeg aan extreem geweld. In 2014 blokkeerden de autoriteiten van Myanmar zelfs tijdelijk Facebook vanwege de rol van het platform bij het teweegbrengen van een geweldsuitbraak in Mandalay. Meta sloeg de waarschuwingen echter herhaaldelijk in de wind en slaagde er niet in om zijn eigen beleid op het gebied van haatzaaien uit te voeren.

‘Facebook Papers’

Het onderzoek van Amnesty International bevat analyses van nieuw bewijs afkomstig van de ‘Facebook Papers’ – interne documenten die zijn gelekt door klokkenluider Frances Haugen.
In een intern document uit augustus 2019 schrijft een medewerker van Meta: ‘We hebben bewijs uit verschillende bronnen dat haatzaaiende en verdeeldheid zaaiende politieke taal, en misinformatie op Facebook… samenlevingen over de hele wereld beïnvloeden. We hebben ook bewijs dat onze basismechanismen, zoals, viraliteit, aanbevelingen, en het optimaliseren voor betrokkenheid, een belangrijk deel uitmaken van waarom dit soort taal het zo goed doet op het platform.’

‘Meta moet betalen’

Amnesty International lanceert vandaag een nieuwe campagne waarin Meta Platforms Inc. wordt opgeroepen om de eisen van de Rohingya voor schadeloosstelling tegemoet te komen.
Vandaag is het een jaar geleden dat de bekende activist Mohib Ullah werd vermoord. Hij was het hoofd van de Arakan Rohingya Society for Peace and Human Rights, en speelde een belangrijke rol in het ter verantwoording roepen van Meta.
Groepen gevluchte Rohingya hebben Meta direct opgeroepen om hen schadeloos te stellen, door een onderwijsproject ter waarde van 1 miljoen dollar in het vluchtelingenkamp in Cox’s Bazar in Bangladesh te financieren. Dit verzoek tot financiering maakt slechts 0,002 procent uit van de winst van Meta van 46,7 miljard dollar in 2021. In februari 2021 sloeg Meta het voorstel van de Rohingya af en zei: ‘Facebook is niet direct betrokken bij filantropische activiteiten.’
Showkutara, een 22-jarige Rohingya-vrouw en jongerenactivist, vertelde: ‘Facebook moet betalen. Als het dat niet doet, gaan we naar alle rechtbanken in de wereld. We zullen deze strijd nooit opgeven.’
Op dit moment lopen er ten minste drie klachten tegen Meta waarin om schadeloosstelling voor de Rohingya wordt gevraagd. In december 2021 startte een burgerzaak tegen het bedrijf in zowel het Verenigd Koninkrijk als de Verenigde Staten. Jongerengroepen van gevluchte Rohingya hebben ook een OESO-zaak aangespannen tegen Meta, die op dit moment in overweging wordt genomen door het nationale contactpunt van de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO) in de VS.
‘Meta heeft de verantwoordelijkheid onder internationale mensenrechtenstandaarden om de vreselijke schade die de Rohingya hebben geleden en waaraan Meta heeft bijgedragen te vergoeden. Dit onderzoek moet de alarmbellen laten afgaan: Meta kan bijdragen aan verdere ernstige mensenrechtenschendingen, tenzij het fundamentele veranderingen aanbrengt aan zijn bedrijfsmodel en algoritmes’, zegt Angès Callamard.
‘Urgente en brede wijzigingen van de algoritmes zijn nodig om te voorkomen dat schendingen plaatsvinden, en de transparantie moet toenemen om ervoor te zorgen dat de geschiedenis van Meta met de Rohingya zich niet elders in de wereld herhaald, vooral daar waar etnisch geweld aan het opkomen is.’
‘Landen moeten nu helpen de mensenrechten te beschermen door het introduceren en versterken van effectieve wetgeving om bedrijfsmodellen die zijn gebaseerd op surveillance in de technologiesector te beperken. Big Tech heeft laten zien dat het dit niet zelf kan wanneer er zoveel winst op het spel staat.”
In mei 2022 schreef Amnesty International naar Meta over het optreden van het bedrijf met betrekking tot zijn zakelijke activiteiten in Myanmar, voor en tijdens de schendingen van 2017. Meta antwoordde dat het geen gegevens kon verstrekken over de periode voor 2017 omdat het bedrijf momenteel ‘betrokken is bij gerechtelijke procedures over deze zaken’.
Op 14 juni 2022 schreef Amnesty International weer naar Meta over de belangrijke beweringen in het rapport, en om het bedrijf de mogelijkheid te geven om een reactie te geven. Meta gaf aan geen commentaar te geven.