Algoritmes, Big Data en overheid
© TCmake_photo

Algoritme-‘waakhond’ dreigt een papieren tijger te worden

Met de oprichting van de algoritmetoezichthouder op 16 januari 2023 lost het kabinet een eerder gedane belofte in die werd gemaakt tijdens het coalitieakkoord van het kabinet-Rutte IV. Helaas constateert Amnesty International dat de bevoegdheden van de algoritmetoezichthouder beperkt zijn.

De overheid gebruikt algoritmes en Big Data om risico’s in te schatten. Bij het toeslagenschandaal leidde dit tot discriminatie en privacy-schendingen. De overheid heeft sindsdien verschillende toezeggingen gedaan om toekomstig leed door algoritmes te voorkomen.

Onvoldoende maatregelen

Een toeslagenschandaal 2.0 moet te allen tijde voorkomen worden. Amnesty International constateert echter dat de maatregelen en toezeggingen verre van voldoende zijn. De nieuwe algoritmetoezichthouder heeft niet voldoende middelen om discriminerende algoritmes effectief aan te pakken.

Tamilla Abdul-Aliyeva van Amnesty International: De algoritmetoezichthouder kan nu wel signaleren dat algoritmegebruik vermoedelijk in strijd is met mensenrechten, maar daarna zijn de bevoegdheden tot handhaving beperkt. Daarvoor is meer nodig. De algoritmetoezichthouder kan nu geen zelfstandig onderzoek naar mensenrechtenschendingen doen, sancties opleggen of verkeerd algoritmegebruik aan banden leggen. Dat maakt dit instituut een papieren tijger, waarmee we eigenlijk nog te weinig opschieten’.

Toeslagenschandaal

Het roept wrange herinneren op aan het toeslagenschandaal. Destijds waren er al in een vroeg stadium veel signalen over de misstanden bij de Belastingdienst, maar de bestaande toezichthouders konden er geen grip op krijgen. 

De Nationale Ombudsman mocht geen bindende besluiten opleggen. Hierdoor kon de Belastingdienst zijn aanbevelingen en waarschuwingen terzijde schuiven. Advies van het College voor de Rechten van de Mens is ook niet bindend. De Autoriteit Persoonsgegevens (AP) had weer een beperkt mandaat en keek naar de rechtmatigheid van de verwerking van persoonsgegevens.

Geen les geleerd

Is er dan niets geleerd van het toeslagenschandaal? Als er iets duidelijk is geworden, is het dat er een grote behoefte bestaat aan een aparte, zelfstandige toezichthouder. Eentje die kennis heeft van álle mensenrechten, bindende besluiten kan nemen, sancties kan opleggen en proactief een onderzoek kan starten. Pas dan kan er worden gesproken van een effectieve bescherming van mensenrechten. Het toeslagenschandaal heeft al laten zien dat de bestaande toezichthouders zelf niet in staat waren om in een vroeg stadium na te gaan hoe de algoritmes werden ingezet.
Alhoewel de oprichting van de algoritmetoezichthouder een stap in de goede richting is waar Amnesty International al langer om vraagt, schieten de door het kabinet geformuleerde doelen en activiteiten van de algoritmetoezichthouder te kort voor een effectieve bescherming van de mensenrechten.

Aanbevelingen

Zelfs na het toeslagenschandaal blijven er onthullingen verschijnen in de media over discriminerende algoritmes. Hier is nog altijd geen grip op. Een algoritmetoezichthouder zou deze tekortkomingen moeten aanvullen.
Amnesty International signaleert de noodzaak voor een instituut, met de juiste bevoegdheden om daadwerkelijk op te kunnen treden. Daarnaast is er meer budget nodig. Een bedrag van 1 miljoen euro in het eerste jaar is niet genoeg om adequaat toezicht te houden. Het kabinet zou, gezien de omvang van het leed dat verkeerd gebruik van algoritmes kan veroorzaken, meer geld moeten vrijmaken voor de algoritmetoezichthouder. Anders ligt een nieuw discriminatie- en privacy-schendingenschandaal wel degelijk op de loer.

Lees hier meer over Tech en mensenrechten.

Meer over dit onderwerp