Amnesty wil bescherming van mensenrechten bij inzet algoritmes en big data
© Andrey Popov

Algoritmes

Een algoritme is een serie regels om een berekening uit te voeren of gegevens te verwerken. Algoritmes kennen we vooral van computerprogramma’s. Risico’s zijn discriminatie, schending van de privacy en misinformatie.

Een simpel algoritme voor beheer van een winkelvoorraad is bijvoorbeeld: ‘doorzoek alle producten, maak een groep van alles wat vóór een bepaalde datum is geleverd, maak daarin een groep van voedsel, maak daarin een groep van bederfelijk voedsel’ enz. Zo’n algoritme ondersteunt een winkelier in het bijhouden van de voorraad.

Big Data en AI

Algoritmes zijn niet meer weg te denken uit het maatschappelijk leven. Overheden, bedrijven en organisaties kunnen van mensen talloze gegevens (Big Data) verzamelen en analyseren. Het doel is bijvoorbeeld om beleid, controles of marketing te richten op bepaalde groepen. Wanneer het gaat over meer complexe algoritmes dan spreken we ook wel van Kunstmatige Intelligentie (Artificial Intelligence of AI).

De risico’s

De uitkomsten van algoritmes moeten altijd met kennis van zaken worden gebruikt. Hoe een algoritme is geschreven en welke gegevens erin worden gestopt, bepaalt wat eruit komt. Daaraan kleven onder meer risico’s van discriminatie, bijvoorbeeld wanneer gegevens over ‘mensen die niet in Nederland zijn geboren’ worden gebruikt. Ook schending van de privacy is een risico: wie toegang heeft tot een grote verzameling van gegevens, kan veel achterhalen van bepaalde groepen of personen.

Nog een risico is dat mensen die informatie zoeken op het internet door algoritmes steeds naar overeenkomstige informatie worden verwezen. Daardoor komen ze in een ‘bubbel’ waarin misinformatie of zelfs ‘fake news’ telkens wordt herhaald. In beleid en onderzoek kunnen algoritmes leiden tot ‘tunnelvisie’, waarin selectieve gegevens leiden tot bevestiging van juist die gegevens.

Nederland

In Nederland bleek vanaf 2019 in het ‘toeslagenschandaal’ dat onder meer het gebruik van algoritmes had geleid tot discriminatie en schending van privacy. Duizenden ouders werden ten onrechte beschuldigd van fraude en kwamen in ernstige problemen toen ze onterecht toeslagen moesten terugbetalen. Ook de Nederlandse politie gebruikte een discriminerend algoritme om mensen te selecteren voor controle.

Bedrijven en overheden

Internationaal constateerde Amnesty meermaals dat bedrijven als Google (YouTube), Meta (Facebook) en X (voorheen Twitter) met hun algoritmes bijdragen aan de verspreiding van mis- en desinformatie. Met behulp van algoritmes wordt veel onbetrouwbare berichtgeving (fake news) en hate speech verspreid. Dat draagt bij aan discriminatie, haatzaaien en geweld tegen bepaalde groepen. Overheden en veiligheidsdiensten gebruiken algoritmes ook om grote hoeveelheden data te analyseren of doorzoeken. Daarmee monitoren ze bijvoorbeeld uitingen op sociale media of bespioneren ze activisten en mensenrechtenverdedigers.

Algoritmes – Amnesty’s visie

Amnesty stelt dat de vraag niet op de eerste plaats moet zijn wat algoritmes kunnen opleveren, maar hoe we deze technologie willen gebruiken en hoe dat mogelijk is op een manier dat de mensenrechten gewaarborgd zijn.

Zie voor uitgebreide en actuele informatie over wat Amnesty in Nederland doet op het gebied van algoritmes, Big Data en de overheid 

 

Meer over dit onderwerp