Verdachte mogelijk voortvluchtig?

Laat de computer voorspellen!

Dit artikel delen:
rechtspraak

Je kon erop wachten: computers die bepalen of mensen wel of niet vluchtgevaarlijk zijn. Het systeem zou zorgen voor het uitsluiten van menselijke vooroordelen. Zijn algoritmes zelflerend genoeg of sijpelt door trainingsdata de voorkeur van de makers heen?

In verschillende staten in de Verenigde Staten wordt een systeem gebruikt dat Public Safety Assessment (PSA) heet. Het algoritme geeft scores aan verdachten die voorgeleid worden. Het algoritme geeft daarmee advies aan de rechters of iemand de kans heeft om in afwachting van zijn proces weer de fout in te gaan of te vluchten. De PSA-score wordt samengesteld uit negen verschillende factoren die twee scores opleveren: hoe groot is de kans dat iemand opnieuw in de fout gaat en of iemand wel op komt dagen tijdens z'n proces.

Experts zijn kritisch omdat algoritmes vaak vooroordelen van de makers versterken. Bekend voorbeeld is het inzetten van meer politie in gebieden waar een algoritme meer drugshandel verwacht, er daar ook meer drugshandel wordt waargenomen. Zo mist het systeem alle handel in andere, vaak witte, wijken.

Wat denkt u, is het mogelijk algoritmes zo te trainen dat ze werkelijk onbevooroordeeld zijn? Of is dat een illusie?

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2018-08-30T08:11:00.000Z Krijn Soeteman


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.