Agenten aansturen met algoritmes? 'Oppassen voor ethnic profiling'

archiefbeeld. © BELGA

Het gebruik van ‘predictive policing’, waarbij databanken en algoritmes misdaad voorspellen, kan leiden tot discriminatie en stigmatisering. Daarvoor waarschuwt specialist IT en recht Laurens Naudts (KU Leuven). ‘Ik ben sceptisch.’

rvs

In navolging van onder andere de Amerikaanse en Nederlandse collega’s gaat ook de Belgische politie databanken en algoritmes gebruiken om criminaliteit te voorspellen nog voor ze gebeurt. ‘Met “predictive policing” kunnen agenten bijvoorbeeld beter inschatten in welke gebieden er op welk moment meer risico is op woninginbraken’, zegt Guy Theyskens, de woordvoerder van de federale politie in De Tijd.

Oppassen voor ethnic profiling

KULeuven-onderzoeker Laurens Naudts wijst op het gevaar van de discriminatie. ‘Als data aangeven dat in een wijk meer gepatrouilleerd moet worden, gaan daar ook meer arrestaties gebeuren. Die gegevens worden weer toegevoegd in de databanken, waardoor het een self-fulfilling prophecy wordt.’

Naudts waarschuwt in die context ook voor ethnic profiling. ‘We moeten opletten dat agenten niet met een vertekend beeld de straat op worden gestuurd en alleen mensen van bepaalde origine gaat controleren, omdat zij volgens de data meer misdaden plegen. Die controles moeten nog altijd gekoppeld worden aan daadwerkelijk gedrag of bijkomend bewijs. We mogen nooit 1 op 1 toepassen wat de computer zegt en de menselijke verantwoordelijkheid opgeven.’

‘Moeilijke wijken gaan zich minder snel herstellen van hun kwalijke naam’, vreest Naudts ook voor een stigmatiserend effect. ‘Je gaat ook veralgemenen: alle mensen die in zo’n probleemwijk wonen, zullen voor het systeem in dezelfde categorie vallen. De maatregelen die met dat systeem worden toegepast, bijvoorbeeld verhoogd cameratoezicht in de wijk, zal daardoor ook iedereen beïnvloeden, ongeacht hun profiel.’

De onderzoeker benadrukt ook het belang van privacy en gegevensbescherming. ‘Mensen kunnen met ‘predictive policing’ snel het gevoel krijgen dat hun privacy beperkt wordt. Als ze zich gesurveilleerd voelen, gaan ze zich ook minder vrij voelen in hun doen en laten en om bijvoorbeeld hun mening te uiten.’

‘Zelfs voor experts zijn algoritmes ingewikkeld’

‘Ik ben sceptisch over elke vorm van grootschalig gegevensgebruik in zo’n cruciale terreinen van onze samenleving’, aldus Naudts. ‘De technologie is ook gewoon heel ingewikkeld. Zelfs voor experts is het moeilijk uit te leggen waarom het algoritme een bepaalde beslissing neemt. Maar ze heeft zo’n grote gevolgen voor het individu, dat die wel uitleg verdient. Die complexiteit geeft ook meer macht aan de gebruikers van het systeem.’

‘We moeten opletten dat we niet in een Big Brother-samenleving terechtkomen met dit systeem’, besluit de onderzoeker. ‘ We mogen blij zijn met onze democratische samenleving, maar dat betekent ook dat de politieke verantwoordelijken kunnen veranderen. Deze systemen kunnen misbruikt worden.’

Naudts pleit daarom voor een sterk kader waarin de databases worden gebruikt, met gerichte training voor het personeel dat ermee werkt, zodat duidelijk is welke risico's aan het gebruik verbonden zijn. Bovendien is een overzichtsmechanisme nodig dat controleert en misbruik vaststelt. Dat orgaan zou ook het publiek moeten informeren over de werking en resultaten.