De overheid en algoritmes: een efficiënte inbreuk op grondrechten?

Afgelopen najaar kwam het Centraal Bureau voor Statistiek (CBS) met zorgelijke berichtgeving over de digitaliserende overheid. Hieruit blijkt niet alleen dat het inzetten van algoritmes eerder regel dan uitzondering is, maar dat het toezicht hierop niet altijd afdoende is. In deze bijdrage zal door mij worden stilgestaan bij het inzetten van algoritmes door overheidsorganisaties. De relevantie hiervan ligt besloten in de mogelijke aantasting van fundamentele waarden van de rechtsstaat door het inzetten hiervan.

Tekst door: Lucas de Vet

LEES VERDER

In deze bijdrage zal ik mij aldus richten op de publieke sector. Allereerst zal door mij worden stilgestaan bij de definitie en de verschillende toepassingen die horen bij het begrip ‘algoritmes’. Hieruit zal blijken dat de toepassingen zeer divers zijn, waardoor het onmogelijk is om – gezien de bescheiden omvang van deze bijdrage – aan elke toepassing aandacht te besteden. Vandaar zal ik mij richten op de meest gebruikte toepassingen. Vervolgens behandel ik de vermeende nadelige effecten hiervan en afsluitend geef ik een bescheiden mening over de huidige stand van zaken met betrekking tot het inzetten van algoritmes door de overheid.

Algoritmes in het kort
Aangezien dit tijdschrift zich voornamelijk richt op juristen kan een beschrijving van het technische begrip ‘algoritme’ niet achterwege blijven. Onze minister voor Rechtsbescherming hanteert de volgende definitie: “Een algoritme is een set van instructies om een bepaalde taak uit te voeren”.1 Er wordt vaak onderscheid gemaakt tussen ‘rule-based’-algoritmes en ‘case-based’-algoritmes. Eerstgenoemde zijn aanzienlijk eenvoudiger van aard en werken op basis van een aantal vaststaande regels en variabelen. Hierbij kun je denken aan het toetsen van grote groepen burgers aan objectieve maatstaven, bijvoorbeeld het al dan niet gerechtigd zijn tot een bijstandsuitkering.2 Bij ‘case-based’-algoritmes zijn de regels niet voorafgaand vastgesteld, maar worden deze op basis van de ervaringen van eerdere casussen afgeleid: “zij leiden regels af uit bestaande casussen en voorspellen daarmee nieuwe casussen”.2 Het inzetten van ‘case-based’-algoritmes kun je vergelijken met de denkwijze van een advocaat die op basis van eerdere jurisprudentie een bepaald vonnis verwacht.4 Voorbeelden van technologieën die door algoritmes worden gedreven zijn Big Data, het Internet Of Things en kunstmatige intelligentie.3 De Big Data technologie voorziet overheidsorganisaties in de mogelijkheid om grote hoeveelheid informatie te analyseren, sorteren en vervolgens te gebruiken bij de besluitvorming.3 Deze grote informatiestromen worden steeds groter door de toenemende mate van gebruikelijke apparaten die informatie vergaren en doorsturen.3 Dit wordt aangeduid met het Internet of Things. Bij kunstmatige intelligentie gaat het om het imiteren van de menselijke manier van denken en redeneren door computers.3

Verkennend onderzoek van het CBS
Nu de basiskenmerken van algoritmes zijn besproken, zal bekeken moeten worden in hoeverre, op welke manier en voor welke doeleinden algoritmes door de overheid worden ingezet. Het in de inleiding genoemde onderzoek van het CBS geeft hier een goed beeld van. Dit verkennende onderzoek berust op een ondervraging van 67 overheidsorganisaties. Uit het onderzoek blijkt dat het uitvoeren van risicoanalyses een veelgebruikt doeleinde is.4 Zeer efficiënt kan door het inzetten van algoritmes inzicht worden verkregen van de grootte van bepaalde ‘risicogroepen’, zoals vroegtijdige schoolverlaters en fraudeurs. Vervolgens kunnen oorspronkelijk onvoorzienbare kenmerken van en verbanden tussen deze groepen worden ontwaard. Dit sluit aan bij de andere genoemde doeleinden: “het identificeren van belangrijke of voorspellende factoren en het in kaart brengen van correlaties tussen factoren en het clusteren van groepen”.4 Het inzetten van algoritmes heeft als grote voordeel dat zij efficiënter en gerichter werken. Aangezien deze werkzaamheden niet langer door mensen hoeven te worden uitgevoerd leidt dit ook tot kostenbesparing.

Het onderzoek belicht echter niet uitsluitend de positieve effecten, er blijkt namelijk uit dat  het uitvoeren van risicoanalyses door algoritmes soms de schijn van discriminatie heeft.4 Daarnaast geven overheidsorganisaties aan dat de privacy van burgers veelal in het geding is.4 Gelukkigerwijs geven veel overheidsorganisaties aan dat zij de juistheid van algoritmes toetsen.4 Ook is het overgrote deel van de respondenten bereid om het gebruik van specifieke algoritmes inzichtelijk te maken, om op die manier tegemoet te komen aan de eisen van transparantie.4 Toch lijkt deze menselijke tussenkomst niet altijd feilloos te gaan. Vaak zijn de algoritmes in zodanige mate complex dat de toezichthoudende persoon de uitkomst niet zal (durven te) tegenspreken: “omdat mensen de tijd, de vaardigheden en het inzicht in het functioneren van het algoritme ontberen om een zelfstandig oordeel te vormen.”5

Uit het onderzoek blijkt dat sommige overheidsorganisaties op bepaalde terreinen behoefte hebben aan aanvullend beleid.7 Hierbij kan gedacht worden aan regels omtrent de inzichtelijkheid en transparantie van algoritmes. Zo zouden aanvullende wettelijke kaders en randvoorwaarden voor de waarborging van zorgvuldige algoritmen nodig zijn.7

‘Door de brede reikwijdte van de privacyrechten levert dit een veelheid van grondrechtelijke knelpunten op.’

Waarschuwingen van de Raad van State
Interessant voor deze bijdrage is ook het ongevraagde advies van de Afdeling Advisering van de Raad van State van afgelopen zomer.8 In dit advies wordt – meer dan in het onderzoek van het CBS – stilgestaan bij de effecten van de digitaliserende overheid en bijbehorende gevolgen voor de rechtsstatelijke verhoudingen. Het hoogste adviesorgaan van de regering constateert dat de burger “in toenemende mate wordt geconfronteerd met besluiten die volautomatisch zijn genomen, zonder menselijke tussenkomst” (..) “Die burger kan niet meer nagaan welke regels zijn toegepast en het is niet meer vast te stellen of de regels ook werkelijk doen waarvoor ze bedoeld zijn”.8

De Raad voorziet dat door het inzetten van algoritmes in mindere mate oog zal zijn voor de eigenheid van de situaties van burgers. Besluiten zullen worden genomen op basis van profilering en statische verbanden: “er wordt dan niet aangetoond dat de burger verwijtbaar heeft gehandeld, maar er is enkel een vermoeden op basis van algemene kenmerken”.8 Met het bovenstaande in acht genomen bepleit de Raad bij geautomatiseerde besluitvorming enerzijds voor de aanscherping van het motiveringsbeginsel en zorgvuldigheidsbeginsel en anderzijds voor het nader ontwikkelen en operationaliseren van een nieuw beginsel van behoorlijk bestuur: “het recht op toegang tot en zinvol contact met de overheid”.8

Daarnaast stipt de Raad nog enkele knelpunten aan bij het inzetten van algoritmes. Allereerst is de burger afhankelijk van een deugdelijke programmering van de algoritmes: “het is voor niet-ICT-specialisten niet mogelijk te controleren of de omzetting in een programmeertaal foutloos en nauwkeurig is gegaan”.8 Mocht de betrokken burger de gegevens die door de algoritmes worden gebruikt willen controleren, dan zal het zeer bewerkelijk zijn om al deze gegevens ter beschikking te stellen.

Grondrechten in het gedrang?
Het Montaigne Centrum van de Universiteit Utrecht heeft vorig jaar een uitgebreid onderzoek uitgebracht over de aantasting van grondrechten door het inzetten van algoritmisch-gedreven technologieën, zoals Big Data, het Internet of Things, en Kunstmatige Intelligentie (KI).9 Zo wordt geconcludeerd dat de genoemde technologieën efficiënt een gedetailleerd beeld van het leven van burgers kunnen verkrijgen. Door de brede reikwijdte van de privacyrechten levert dit een veelheid van grondrechtelijke knelpunten op.9

Naast privacyrechten zijn ook gelijkheidsrechten in het geding: algoritmisch-gedreven technologieën maken het in toenemende mate mogelijk om tot differentiatie tussen (groepen) personen over te gaan.9 Dit kan leiden tot een ongerechtvaardigd onderscheid en zelfs tot discriminatie. Ook wordt gewezen op de aantasting van vrijheidsrechten, variërend van de vrijheid van meningsuiting tot het kiesrecht.9 Algoritmen kunnen negatieve gevolgen hebben voor de vrijheid van informatie en kunnen door ‘filterbubbels’ invloed op hebben op de publieke opinie. Tenslotte kunnen ook de procedurele grondrechten in gedrang komen, wanneer ondoorzichtige algoritmische besluitvorming afbreuk doet aan de mogelijkheid om rechtsmiddelen aan te wenden.9 Aangezien Dennis Kok in deze editie zal ingaan op de gevolgen van grondrechten door de digitaliserende overheid, zal ik het ten aanzien van grondrechten hierbij laten.

Beschermende waarborgen in het recht
Naast de hiervoor genoemde grondrechten worden overheidsorganisaties bij (deels) geautomatiseerde besluitvorming begrensd door eisen die uit regelgeving en jurisprudentie voortvloeien. Allereerst heeft de Raad van State recentelijk hoge eisen gesteld aan het inzichtelijk en controleerbaar maken van de gegevens die gepaard gegaan bij geautomatiseerde besluitvorming. De bestuursorganen moeten: “de gebruikte gegevens en aannames volledig, tijdig en uit eigen beweging openbaar te maken op een passende wijze zodat deze keuzes, gegevens en aannames voor derden toegankelijk zijn.”10

Daarnaast vloeien – waar het gaat om persoonsgegevens – eisen voort uit de Algemene Verordening Gegevensbescherming (AVG). Zo gebiedt deze Europese regelgeving overheidsorganisaties tot een transparante verwerking van persoonsgegevens en moeten zij zorg dragen voor informatieverstrekking over de verwerking in “beknopte, transparante en gemakkelijk toegankelijke vorm”.11 Deze informatieverstrekking moet in duidelijke en toegankelijke vorm geschieden.

Tenslotte, waar het gaat over transparantievereisten voor de overheid, kan de Wet openbaarheid van bestuur (Wob) niet achterblijven. Ook deze wet kan een rol vervullen in het inzichtelijk maken van het gebruik van algoritmes door de overheid. Hiervoor is vereist dat het gaat over – onder de overheid berustende –  informatie over een bestuurlijke aangelegenheid.12 Echter bestaan er uitzonderingsgronden die een weigering om gegevens openbaar te maken kunnen rechtvaardigen, zoals de veiligheid van de Staat en de opsporing van strafbare feiten.12

‘Daarnaast vloeien – waar het gaat om persoonsgegevens – eisen voort uit de Algemene Verordening Gegevensbescherming (AVG).’

‘Toch zullen overheidsorganisaties zorgvuldigheid moeten betrachten vanwege de vele fundamentele grondrechten die in het geding zijn.’

Conclusie

Gebleken is dat het inzetten van algoritmes door overheidsorganisaties eerder regel dan uitzondering is. Dit is niet onbegrijpelijk omdat de tal van toepassingen het functioneren van de overheid aanzienlijk efficiënter kunnen maken. Toch zullen overheidsorganisaties zorgvuldigheid moeten betrachten vanwege de vele fundamentele grondrechten die in het geding zijn.

Persoonlijk verwacht ik dat algoritmes in de komende jaren complexer zullen gaan worden. Hiervan uitgaande zal de overheid nóg intensiever zorg moet dragen voor de waarborging van menselijke tussenkomst, die toezicht houden op de ontwikkeling van deugdelijke algoritmes en de controle op het functioneren hiervan. Als de impact van de uitkomst van een algoritme op de burger groter is, zal de behoefte aan transparantie groter zijn. Het is te hopen dat overheidsorganisaties hierin (blijven) voorzien. Dit sluit goed aan bij de genoemde aanbevelingen van de Raad van State. Zolang de transparantie en zorgvuldigheid gewaarborgd blijft, is het inzetten van algoritmes door de overheid, gezien de vele voordelen, zeer wenselijk. Op die manier kunnen we van deze nuttige technologieën gebruikmaken, maar blijft er oog voor de eigenheid van een burger zijn situatie.

Lucas de Vet (23) is masterstudent Staats- en bestuursrecht, met de specialisatie Instrumenten van overheidssturing. Hij heeft tijdens zijn bachelor vakken gevolgd in het internationaal recht aan de Romeinse universiteit LUISS Guido Carli. Daarnaast heeft hij stages gelopen bij zowel een klein als een groot advocatenkantoor.

Reageren op dit artikel? Dat kan door een mail te sturen naar: devetlucas@gmail.com

Voetnoten

1. Minister voor rechtsbescherming, ‘Kamerbrief over motie over transparantie van algoritmes in gebruik bij de overheid’, 09-10-2018, p. 3.
2. Centraal Bureau Statistiek, ‘Verkennend onderzoek naar het gebruik van algoritmen binnen overheidsorganisaties’, november 2018, p. 5,6,7,8
3. M.J. Vetzo, J.H. Gerards en R. Nehmelman namens het Montaigne Centrum voor Rechtsstaat en Rechtspleging Universiteit Utrecht, ‘Algoritmen en grondrechten’, 2018, p. 13
4. Centraal Bureau Statistiek, ‘Verkennend onderzoek naar het gebruik van algoritmen binnen overheidsorganisaties’, november 2018, p. 4,5,9,10,11
5. M.J. Vetzo, J.H. Gerards en R. Nehmelman namens het Montaigne Centrum voor Rechtsstaat en Rechtspleging Universiteit Utrecht, ‘Algoritmen en grondrechten’, 2018, p. 50

6. Centraal Bureau Statistiek, ‘Verkennend onderzoek naar het gebruik van algoritmen binnen overheidsorganisaties’, november 2018, p. 10.
7. Raad van State, Advies W04.18.0230/I, 31 augustus 2018, p. 2, 3, 6, 10
8. M.J. Vetzo, J.H. Gerards en R. Nehmelman namens het Montaigne Centrum voor Rechtsstaat en Rechtspleging Universiteit Utrecht, ‘Algoritmen en grondrechten’, 2018, p. 14, 177, 178, 180, 182
9. Raad van State, Advies W04.18.0230/I, 31 augustus 2018, p. 2, 3, 6, 10, ABRvS 17-05-2017, ECLI:NL:RVS:2017:1259, m. nt. B Assink
10. Algemene Verordening Gegevensbescherming, artikel 12.
11. Wet openbaarheid van bestuur, artikel 3, eerste lid, artikel 10

Video
Share

Your name

Your e-mail

Name receiver

E-mail address receiver

Your message

Send

Share

E-mail

Facebook

Twitter

Google+

LinkedIn

Contact

Send

Sign up

Sign up