Computable.be
  • Thema’s
    • Security & Awareness
    • Cloud & Infrastructuur
    • Data & AI
    • Software Innovation
  • Computable Awards
    • Nieuws Computable Awards
    • Hall of Fame
  • Cybersec e-Magazine
  • Kennisbank
  • Inlog
  • Nieuwsbrief
Responsible ai artificial intelligence kunstmatige intelligentie

Handreiking voorkomt discriminatie door algoritmen

17 juni 2021 - 09:06ActueelInnovatie & TransformatieTU EindhovenUniversiteit TilburgVrije UniversiteitVUB
Alfred Monterie

Voor overheid en bedrijfsleven is een uitgebreide handreiking samengesteld ter voorkoming van discriminatie door algoritmen. Daarin wordt stap voor stap uitgelegd hoe organisaties die kunstmatige intelligentie willen inzetten, kunnen voorkomen dat bepaalde groepen stelselmatig worden benadeeld.

De opdrachtgever, het ministerie van Binnenlandse Zaken, heeft de Handreiking Non-Discriminatie by Design onlangs naar de Tweede Kamer gestuurd. Een uitgebreid Nederlands-Belgisch onderzoeksteam heeft gekeken naar technische, juridische en organisatorische voorwaarden die bij artificial intelligence (ai) in acht moeten worden genomen.

Algoritmen worden steeds vaker ingezet om risico-gestuurd te werken en geautomatiseerde besluiten te nemen. Het schrijven geeft tien regels waarmee misstanden als de kindertoeslagaffaire bij de Belastingdienst zijn te voorkomen. 

Zo moet bij algoritmen worden gecontroleerd of er ergens sprake is van indirecte discriminatie. De onderzoekers spreken zich uit tegen het gebruik van postcodegebieden door bijvoorbeeld een predictive policing-systeem. Als de politie op basis hiervan het advies krijgt om veel te surveilleren in de Bijlmer of de Haagse Schilderswijk, dan is het risico op zichzelf vervullende voorspellingen groot, zo wordt gesteld.

Recht op non-discriminatie

Veel aandacht krijgt het recht op non-discriminatie. Dit gevaar dreigt als een ai-systeem leert van menselijke beslissingen die discrimineren. De handreiking maakt ontwikkelaars bewust van dit risico en biedt handvatten om dit te voorkomen. Daarvoor worden belangrijke juridische kaders vertaald naar operationele ontwerpprincipes. 

De Handreiking onderscheidt zes stappen voor het ontwikkelen en toepassen van algoritmen. Begonnen wordt met het vaststellen van de probleemdefinitie, het verzamelen van data en de dataselectie. Daarna volgen het bepalen van een beleid voor automatische besluitvorming, de implementatie en de toetsing daarvan.

Voorgesteld wordt dat organisaties belanghebbenden en relevante groepen in de samenleving al vanaf het begin betrekken bij de ontwikkeling van het algoritme. Externe, onafhankelijke experts moeten gedurende het hele proces kritisch meekijken. Ook moeten personen ten aanzien waarvan automatische besluiten worden genomen daarvan op de hoogte worden gesteld. Ze moeten daar bezwaar tegen kunnen aantekenen. Verder moet het systeem worden stopgezet bij geconstateerde fouten en gebreken. Het hele proces dient aan permanente monitoring worden onderworpen.  

De Handreiking is samengesteld door een team van onderzoekers van Universiteit Tilburg, TU Eindhoven University of Technology, Vrije Universiteit Brussel en het College voor de Rechten van de Mens.

Meer over

Kunstmatige intelligentie

Deel

Fout: Contact formulier niet gevonden.

Meer lezen

OpinieData & AI

Ai invoeren begint bij het stellen van ethische vragen

Responsible ai artificial intelligence kunstmatige intelligentie
ActueelInnovatie & Transformatie

Google laat ai-onderzoeken positief inkleuren

Artificial intelligence security artificiële intelligentie beveiliging kunstmatige intelligentie
OpinieData & AI

Verantwoorde ai voorkomt vragen

Geef een reactie Reactie annuleren

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Populaire berichten

Meer artikelen

Footer

Direct naar

  • Kennisbank
  • Computable Awards
  • Colofon
  • Cybersec e-Magazine

Producten

  • Adverteren en meer…
  • Persberichten

Contact

  • Contact
  • Nieuwsbrief

Social

  • Facebook
  • X
  • LinkedIn
  • YouTube
  • Instagram
© 2025 Jaarbeurs
  • Disclaimer
  • Gebruikersvoorwaarden
  • Privacy statement
Computable.be is een product van Jaarbeurs