Computable.be
  • Thema’s
    • Security & Awareness
    • Cloud & Infrastructuur
    • Data & AI
    • Software Innovation
  • Computable Awards
    • Nieuws Computable Awards
    • Hall of Fame
  • Cybersec e-Magazine
  • Kennisbank
  • Inlog
  • Nieuwsbrief

Het nut van ‘verklaarbare ai’

13 mei 2020 - 08:044 minuten leestijdOpinieInnovatie & TransformatieGartnerGoogle
Chris Pope
Chris Pope

Ons leven is doordrongen van toepassingen die gebaseerd zijn op kunstmatige intelligentie (ai), zoals virtuele assistenten, slimme thermostaten en navigatie-apps. Ai wordt – bewust en onbewust – dagelijks door miljoenen consumenten gebruikt. Maar de introductie van ai op de werkplek blijkt lastig.

Terwijl de gemiddelde Nederlander zonder erbij stil te staan informatie opvraagt bij Siri of de weg zoekt via Google Maps, is diezelfde Nederlander een stuk kritischer wanneer ai zijn werk betreft. De onboarding van nieuwe medewerkers of de afhandeling van vragen van klanten, om maar een paar voorbeelden te noemen, wordt niet zonder meer ‘aan een computer overgelaten’.

Overal waar ik vanuit mijn functie kom, zie ik dan ook de behoefte om de zwarte doos rond de ai-toepassing uit elkaar te halen en kunstmatige intelligentie ‘verklaarbaar’ te maken. En opmerkelijk genoeg voel ik die behoefte in alle lagen van een bedrijf, van het topmanagement tot op de werkvloer.

Vertrouwen is cruciaal

De afgelopen jaren zijn gekenmerkt door een sterke opkomst van ai-gedreven tools op de werkplek, zoals toepassingen voor het identificeren van leads, het verwerken van facturen, het werven van personeel, of het ontwikkelen van marketingstrategieën. Stuk voor stuk tools om taken sneller en efficiënter uit te voeren.

En hoewel de helft van de zakelijke wereld ai als een prioriteit beschouwt, en twee derde een ‘ai first’-cultuur aanhangt, blijft een gebrek aan vertrouwen in ai een grote hindernis bij het uitrollen van ai-tools in bedrijven. Het probleem is namelijk dat werknemers niet voetstoots aannemen dat deze tools hen daadwerkelijk helpen om werk effectiever te maken.

En dat is niets nieuws; ook Gartner gaf al in 2018 aan dat het scheppen van vertrouwen een grote rol speelt bij het uitrollen van ai-tools. Als medewerkers alleen de output van het algoritme te zien krijgen zonder dat het ‘waarom’ uitgelegd wordt, wanen ze zich weer in hun kleutertijd. ‘Omdat ik het zeg’ is vanaf een bepaalde leeftijd geen valide argument meer, dus ook niet als je geconfronteerd wordt met ai. Het gebrek aan vertrouwen is dan ook een reden gebleken om de desbetreffende toepassing te verwerpen.

Scepsis en boosheid

Veel mensen wijzen ai niet alleen af uit scepsis, maar uit boosheid. Dat is begrijpelijk: die nieuwe tool die taken sneller en beter zou kunnen uitvoeren, kan bedreigend overkomen. En laten we eerlijk zijn: ai kan inderdaad bedreigend zijn, voor bepaalde functies. En dat is precies de reden waarom het concept ‘verklaarbare ai’ langzaam terrein lijkt te winnen.

Dit concept gaat ervan uit dat er behoefte is aan systemen die medewerkers uitleggen hoe een ai-tool werkt en hoe die zijn conclusies trekt. Ai op ai dus. Er zijn al startups opgericht die zich richten op verklaarbare ai. Bedrijven bijvoorbeeld die andere bedrijven helpen om bias te voorkomen, hetgeen cruciaal is in sterk gereguleerde sectoren als de gezondheidszorg en de financiële dienstverlening.

Bovendien zijn er al wetten en regels in de maak met betrekking tot ai, en die zullen ook hun uitwerking hebben op het bedrijfsleven. Bedrijven zullen dan voor de nodige transparantie moeten zorgen, zowel voor hun klanten als voor de autoriteiten.

En dat is een uitstekende ontwikkeling. Machine learning en ai worden nog veel te veel gezien als een bedrijfsrisico. Als iets ook maar een beetje ruikt naar bias – en dat hoeft niet eens waar of bewezen te zijn – geef je je klanten al reden om je producten te wantrouwen. Door een goede regelgeving en een uitleg van hoe ai tot zijn resultaten komt, maak je daar een einde aan.

Spagaat

Natuurlijk begrijp ik als geen ander dat de noodzaak aan verklaarbare ai sommige bedrijven in een spagaat dwingt. Want hoe geavanceerder en krachtiger een ai-tool is, hoe ingewikkelder het algoritme erachter is en hoe moeilijker het is om het uit te leggen.

En die spagaat zal nog wel een tijdje blijven bestaan. Vooralsnog kunnen de bedrijven dus kiezen voor een model dat ‘goed genoeg is’, en dat daarom niet al te moeilijk te verklaren is, met de kans dat de adoptie ervan redelijk soepel verloopt. Ofwel kiezen ze voor een model dat in alle opzichten geweldig geavanceerd is en dat de concurrentie op elk gebied wegvaagt. Maar dat wel het risico met zich meedraagt dat het veel lastiger te verklaren is, en snel in onbruik raakt omdat mensen het niet vertrouwen.  

‘Verklaarbare ai’ zal zich verder ontwikkelen, en snel aan belang winnen.

Chris Pope, vice president Innovation bij Servicenow

Meer over

GPSKunstmatige intelligentieStartups

Deel

Fout: Contact formulier niet gevonden.

Meer lezen

OpinieInnovatie & Transformatie

Zit de toekomst van cybercrime in ai?

ActueelInnovatie & Transformatie

Ai-assistent van Sage en Accounton helpt accountant

Artificial intelligence security artificiële intelligentie beveiliging kunstmatige intelligentie
OpinieData & AI

Verantwoorde ai voorkomt vragen

OpinieInnovatie & Transformatie

Ai werkt eerlijke economie in de hand

Geef een reactie Reactie annuleren

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Populaire berichten

Meer artikelen

Footer

Direct naar

  • Kennisbank
  • Computable Awards
  • Colofon
  • Cybersec e-Magazine

Producten

  • Adverteren en meer…
  • Persberichten

Contact

  • Contact
  • Nieuwsbrief

Social

  • Facebook
  • X
  • LinkedIn
  • YouTube
  • Instagram
© 2025 Jaarbeurs
  • Disclaimer
  • Gebruikersvoorwaarden
  • Privacy statement
Computable.be is een product van Jaarbeurs