Direct naar (in deze pagina): inhoud, zoekveld of menu.

  • Download PDF

Vaststelling begroting Ministerie van Veiligheid en Justitie 2018

34775 VI AL VERSLAG VAN EEN SCHRIFTELIJK OVERLEG

Vergaderjaar 2018-2019

AL

Vastgesteld 13 februari 2019

De leden van de vaste commissie voor Justitie en Veiligheid1 hebben kennisgenomen van de brief van de Minister voor Rechtsbescherming van 19 december 20182 over enkele gedachtelijnen rond de toepassing en het gebruik van algoritmen en artificiële intelligentie in het domein van de rechtspleging. Naar aanleiding hiervan hebben de leden van de SP-fractie op 25 januari 2019 een aantal vragen gesteld aan de Minister. De fractieleden van 50PLUS hebben zich bij deze vragen aangesloten.

De Minister heeft op 13 februari 2019 gereageerd.

De commissie brengt bijgaand verslag uit van het gevoerde schriftelijk overleg.

De griffier van de vaste commissie voor Justitie en Veiligheid,
Van Dooren

BRIEF VAN DE VOORZITTER VAN DE VASTE COMMISSIE VOOR JUSTITIE EN VEILIGHEID

Aan de Minister voor Rechtsbescherming

Den Haag, 25 januari 2019

De leden van de vaste commissie voor Justitie en Veiligheid hebben met belangstelling kennisgeno-men van uw brief van 19 december 20183 over enkele gedachtelijnen rond de toepassing en het gebruik van algoritmen en artificiële intelligentie in het domein van de rechtspleging. Naar aanleiding hiervan hebben de leden van de SP-fractie de volgende vragen aan u. De fractieleden van 50PLUS sluiten zich graag bij deze vragen aan.

Het gebruik van algoritmes is niet meer weg te denken uit onze maatschappij. Het is misschien wel de belangrijkste ontwikkeling die we nu meemaken. Deze ontwikkeling en de daarbij behorende le-rende systemen (artificiële intelligentie) bieden ons heel veel kansen. Op zich is het goed dat de rechterlijke macht bijtijds kijkt naar wat deze ontwikkeling te bieden heeft. De leden van de fractie van de SP zijn dan ook niet bij voorbaat van mening dat dit niet zou moeten gebeuren.

Het inzetten van deze techniek heeft als groot voordeel dat men onbevooroordeeld zou kunnen concluderen. Met de juiste systemen kan men zelfs beter oordelen dan een rechter. We weten dat rechters op bepaalde momenten van de dag strenger oordelen dan andere momenten. We weten dat rechters beïnvloed worden door huidkleur, geslacht, attitude. Dat is logisch, rechters zijn mensen.

We kunnen de systemen ook inzetten om risicoanalyses te maken. Wie heeft de kans opnieuw de fout in te gaan? Wie heeft baat bij een strenger regime? Wie heeft baat bij een Halt-straf? Daarmee kan een systeem, gek genoeg, maatwerk leveren. Het systeem kan op zoek gaan naar wat bewezen werkt.

Maar alles hangt af van de data die wordt ingevoerd en welke parameters er worden gebruikt. Dat vraagt uiterste zorgvuldigheid. Dat vraagt diepe kennis van diegenen die deze data inzetten voor de rechtspraak.

Een van de zorgpunten die de SP-fractieleden hebben, is de samenhang met de werkdruk en de in-zet van deze middelen. Zij noemen het voorbeeld van een invalide man die een parkeerboete krijgt omdat zijn ontheffing niet bij de voorruit lag, maar achter op de auto was geplakt. De parkeerwachten hadden daar echter niet gekeken. Bezwaar mocht echter niet baten en hij moest uiteindelijk veel geld betalen. De zaak kwam niet voor de rechter, omdat alle procedures juist waren gevolgd. Alle procedures zijn dus juist gevolgd, maar de fout is niet gedetecteerd. Dat is precies wat voornoemde leden zorgen baart.

U noemt in uw brief een aantal belangrijke kernwaarden. U verwijst naar het recht om een rechter te zien, noemt als voorwaarde de transparantie van het systeem, de toetsbaarheid, geen profilering en het risico van biassystemen. Hoe geeft u nu vorm aan deze kernwaarden? Hoe komen deze tot uitdrukking in de labs? Hoe zorgt u ervoor dat de ontwikkelingen, experimenten en testen bij deze kernwaarden getest worden? Kunt u ook aangeven of deze toets gebeurt voordat de projecten star-ten of daarna?

De leden van de fractie van de SP willen graag nog een ander punt inbrengen. Een van de risico’s van het werken met geautomatiseerde systemen is dat we menen te weten dat ze de wijsheid/waarheid in pacht hebben. Algoritmes zijn op hun best wanneer ze een enkele wiskundige beslissing moeten nemen, maar wanneer er meer complexe beslissingen genomen moeten worden, dan komt het systeem in de problemen. De algoritmes gaan gebruikt worden om risico’s op misdrijven in te calculeren. Daarin worden al ethische keuzes gemaakt. Hoe groot mag het risico van iemand zijn dat hij een kind gaat misbruiken? Als het systeem zegt dat het 5% is, is dit dan een zorgwekkend percentage en rechtvaardigt dit de opsluiting van deze persoon of is 5% een acceptabel risico in onze samenleving? En wat als de keuze meervoudig wordt?

De leden van de SP-fractie noemen als voorbeeld de inzet van een artificiële intelligentie in de oor-log: natuurlijk verkiest het systeem de bevriende soldaat boven de vijandige soldaat, maar welke keuze maakt het wanneer het moet kiezen tussen de bevriende soldaat en een vijandige burger? Of tussen een bevriende soldaat en een bevriende burger? In deze keuzes zitten ethische beslissingen welke door mensen zelfs soms niet beantwoord kunnen worden. Maar ook in de keuze van een bureaucratisch systeem, welke zaken wel of niet voorkomen (zie het voornoemde voorbeeld).

Onlangs publiceerde Peter Eckersley een paper4 over dit onderwerp. Hierin bepleit hij het opnemen

van onzekerheden in de software. Een van de genoemde methoden is, bij bovenstaand voorbeeld, aan te geven dat men in 75% van de gevallen de bevriende soldaat verkiest en in 20% van de ge-vallen de burger etc. Dan zou het systeem met diverse scenario’s kunnen werken en vervolgens de beste opties aangeven aan diegene die de uiteindelijke beslissingen wil nemen. Volgens de leden van de fractie van de SP wordt er dan optimaal gebruikgemaakt van algoritmes. Met de data die men ter beschikking heeft, laat men de denkkracht over aan de computer, die sneller en beter kan rekenen, met ingebouwde twijfel om uiteindelijk de meest optimale scenario’s te presenteren. Het voorkomt bovendien tunnelvisie.

Kent u deze voorstellen? Hoe weegt u deze? Zijn ze onderdeel van het afwegingskader? Zo nee, zou u ze willen introduceren?

Als laatste stellen de SP-fractieleden de vraag aan u hoe u gaat waarborgen dat niet alleen de nieuwste technologische ontwikkelingen een plek krijgen in de rechtspraak, maar ook de nieuwste inzichten op het gebied van gebruik van algoritmes.

De leden van de vaste commissie voor Justitie en Veiligheid zien uw reactie met belangstelling tegemoet. Zij verzoeken u deze reactie de Kamer uiterlijk 15 februari 2019 te doen toekomen, zodat zij betrokken kan worden bij de derde termijn van het beleidsdebat over de staat van de rechtsstaat, die op 19 februari 2019 zal plaatsvinden.

Voorzitter van de vaste commissie voor Justitie en Veiligheid,
A.W. Duthler

BRIEF VAN DE MINISTER VOOR RECHTSBESCHERMING

Aan de Voorzitter van de Eerste Kamer der Staten-Generaal

Den Haag, 13 februari 2019

Per brief van 25 januari 2019 heeft uw Kamer mij – naar aanleiding van mijn brief van 19 december 2018 over de toepassing en het gebruik van algoritmen en artificiële intelligentie in het domein van de rechtspleging5 – drie vragen gesteld:
  • 1.  Hoe wordt aan de in de brief genoemde kernwaarden vorm gegeven in de experimenten en pilots?
  • 2.  Zijn de voorstellen van Peter Eckersley, zoals verwoord in zijn artikel «Impossibility and Uncertainty Theorems in AI Value Alignment», onderdeel van het afwegingskader?
  • 3.  Hoe ga ik waarborgen dat niet alleen de nieuwste technologische ontwikkelingen een plek krijgen in de rechtspraak, maar ook de nieuwste inzichten op het gebied van gebruik van algoritmes?

Ik beantwoord die vragen als volgt.

Ad 1: De experimenten zijn gericht op het vergaren van kennis over AI en de consequenties van het gebruik daarvan in diverse contexten, waarvan in dit verband vooral de rechtspleging van belang is. Doel van deze experimenten is om te onderzoeken óf en zo ja, hoe de in mijn brief aangeduide kernwaarden geraakt worden door toepassing van AI en algoritmen, en welke maatregelen kunnen c.q. moeten worden getroffen om die kernwaarden overeind te houden wanneer AI gebruikt gaat worden binnen de rechtspleging. De inzet is dus het borgen van de bedoelde waarden. Juist omdat wij nog onvoldoende kunnen inschatten wat de impact op die waarden is, worden deze experimenten in beginsel uitgevoerd buiten het primaire proces.

Ad 2: Het debat over de voorstellen waaraan wordt gerefereerd, moet in eerste instantie in wetenschappelijke kring worden gevoerd, waarbij deskundigen vanuit diverse disciplines (ik denk daarbij aan: AI, statistiek, ethiek en filosofie van de techniek, rechtspleging, mensenrechten, rechtspsychologie, rechtsmethodologie) tot zo mogelijk gedeelde inzichten komen en vandaaruit de praktijk en de politiek van goede adviezen kunnen bedienen. Deze discussie wordt op diverse fronten en diverse niveaus gevoerd. In mijn brief heb ik daar enkele voorbeelden van gegeven (WRR, EZK, EU, Raad van Europa). Het Ministerie van Justitie en Veiligheid is op deze discussies aangesloten en brengt dit type vragen ook in.

Ad 3: Vanwege de positie van de Rechtspraak in ons bestel heeft de Rechtspraak hier een eigen taak en verantwoordelijkheid. Bij de aanschaf, ontwikkeling en/of het gebruik van nieuwe technische hulpmiddelen laat de Rechtspraak zich adviseren door experts vanuit verschillende disciplines. Daarnaast investeert de Rechtspraak zelf in wetenschappelijke kennis op dit gebied, bijvoorbeeld in de leerstoel «Data Science in de rechtspraak» aan de Universiteit van Tilburg. Voorts is zij betrokken in diverse samenwerkingsverbanden en overleggen waarin ook kennis over deze thematiek wordt uitgewisseld, zowel nationaal als internationaal. Als blijkt dat voor toepassing van nieuwe technologie nieuwe regelgeving nodig is, treed ik daarover in overleg met de Rechtspraak.

Voorts spreekt uw Kamer ook haar zorg uit over de samenhang met de werkdruk en de inzet van de (technische) middelen en tot welke ongewenste gevolgen dat kan leiden. Deze zorg is ook uitgesproken door de Raad van State in zijn advies van 31 augustus betreffende digitalisering.6 Het kabinet heeft in zijn reactie op dit rapport aangegeven die zorg te delen, en maatregelen geschetst die daaraan tegemoet beogen te komen.7

De Minister voor Rechtsbescherming,
S. Dekker

Noot 1: SamenstellingEngels (D66), Kox (SP), Van Bijsterveld (CDA) (vicevoorzitter), Duthler (VVD) (voorzitter), Ten Hoeve (OSF), Koffeman (PvdD), Strik (GL), Knip (VVD), Backer (D66), Schouwenaar (VVD), Van Strien (PVV), Kok (PVV), Gerkens (SP), Vlietstra (PvdA), Lokin-Sassen (CDA), Dercksen (PVV), D.J.H. van Dijk (SGP), Van Rij (CDA), Rombouts (CDA), Van de Ven (VVD), vac. (SP), Bikker (CU), Baay-Timmerman (50PLUS) Van Zandbrink (PvdA), vac. (PVV), Fiers (PvdA), Andriessen (D66), Vink (D66)

Noot 2: Kamerstukken I 2018/19, 34 775 VI, AH.

Noot 3: Kamerstukken I 2018/19, 34 775 VI, AH.

Noot 4: Impossibility and Uncertainty Theorems in AI Value Alignment.

Noot 5: Kamerstukken I, 2018–2019, 34 775 VI, AH.

Noot 6: Staatscourant 2018 Nr. 50999 (6 september 2018); en Kamerstukken II, 2017–2018, 26 643, nr. 557.

Noot 7: Brief van de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties van 2 november 2018, Kamerstukken II, 2018–2019, 26 643, nr. 578.