Computable.be
  • Thema’s
    • Security & Awareness
    • Cloud & Infrastructuur
    • Data & AI
    • Software Innovation
  • Computable Awards
    • Nieuws Computable Awards
    • Hall of Fame
  • Cybersec e-Magazine
  • Kennisbank
  • Inlog
  • Nieuwsbrief
Responsible ai artificial intelligence kunstmatige intelligentie

Handreiking voorkomt discriminatie door algoritmen

17 juni 2021 - 09:06ActueelInnovatie & TransformatieTU EindhovenUniversiteit TilburgVrije UniversiteitVUB
Alfred Monterie

Voor overheid en bedrijfsleven is een uitgebreide handreiking samengesteld ter voorkoming van discriminatie door algoritmen. Daarin wordt stap voor stap uitgelegd hoe organisaties die kunstmatige intelligentie willen inzetten, kunnen voorkomen dat bepaalde groepen stelselmatig worden benadeeld.

De opdrachtgever, het ministerie van Binnenlandse Zaken, heeft de Handreiking Non-Discriminatie by Design onlangs naar de Tweede Kamer gestuurd. Een uitgebreid Nederlands-Belgisch onderzoeksteam heeft gekeken naar technische, juridische en organisatorische voorwaarden die bij artificial intelligence (ai) in acht moeten worden genomen.

Algoritmen worden steeds vaker ingezet om risico-gestuurd te werken en geautomatiseerde besluiten te nemen. Het schrijven geeft tien regels waarmee misstanden als de kindertoeslagaffaire bij de Belastingdienst zijn te voorkomen. 

Zo moet bij algoritmen worden gecontroleerd of er ergens sprake is van indirecte discriminatie. De onderzoekers spreken zich uit tegen het gebruik van postcodegebieden door bijvoorbeeld een predictive policing-systeem. Als de politie op basis hiervan het advies krijgt om veel te surveilleren in de Bijlmer of de Haagse Schilderswijk, dan is het risico op zichzelf vervullende voorspellingen groot, zo wordt gesteld.

Recht op non-discriminatie

Veel aandacht krijgt het recht op non-discriminatie. Dit gevaar dreigt als een ai-systeem leert van menselijke beslissingen die discrimineren. De handreiking maakt ontwikkelaars bewust van dit risico en biedt handvatten om dit te voorkomen. Daarvoor worden belangrijke juridische kaders vertaald naar operationele ontwerpprincipes. 

De Handreiking onderscheidt zes stappen voor het ontwikkelen en toepassen van algoritmen. Begonnen wordt met het vaststellen van de probleemdefinitie, het verzamelen van data en de dataselectie. Daarna volgen het bepalen van een beleid voor automatische besluitvorming, de implementatie en de toetsing daarvan.

Voorgesteld wordt dat organisaties belanghebbenden en relevante groepen in de samenleving al vanaf het begin betrekken bij de ontwikkeling van het algoritme. Externe, onafhankelijke experts moeten gedurende het hele proces kritisch meekijken. Ook moeten personen ten aanzien waarvan automatische besluiten worden genomen daarvan op de hoogte worden gesteld. Ze moeten daar bezwaar tegen kunnen aantekenen. Verder moet het systeem worden stopgezet bij geconstateerde fouten en gebreken. Het hele proces dient aan permanente monitoring worden onderworpen.  

De Handreiking is samengesteld door een team van onderzoekers van Universiteit Tilburg, TU Eindhoven University of Technology, Vrije Universiteit Brussel en het College voor de Rechten van de Mens.

Meer over

Kunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Meer lezen

    OpinieData & AI

    Ai invoeren begint bij het stellen van ethische vragen

    Responsible ai artificial intelligence kunstmatige intelligentie
    ActueelInnovatie & Transformatie

    Google laat ai-onderzoeken positief inkleuren

    Artificial intelligence security artificiële intelligentie beveiliging kunstmatige intelligentie
    OpinieData & AI

    Verantwoorde ai voorkomt vragen

    Geef een reactie Reactie annuleren

    Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Kennisbank
    • Computable Awards
    • Colofon
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Persberichten

    Contact

    • Contact
    • Nieuwsbrief

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.be is een product van Jaarbeurs