Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het gedachtegoed van de redactie.

Het nut van ‘verklaarbare ai’

Dit artikel delen:

Ons leven is doordrongen van toepassingen die gebaseerd zijn op kunstmatige intelligentie (ai), zoals virtuele assistenten, slimme thermostaten en navigatie-apps. Ai wordt - bewust en onbewust - dagelijks door miljoenen consumenten gebruikt. Maar de introductie van ai op de werkplek blijkt lastig.

Terwijl de gemiddelde Nederlander zonder erbij stil te staan informatie opvraagt bij Siri of de weg zoekt via Google Maps, is diezelfde Nederlander een stuk kritischer wanneer ai zijn werk betreft. De onboarding van nieuwe medewerkers of de afhandeling van vragen van klanten, om maar een paar voorbeelden te noemen, wordt niet zonder meer ‘aan een computer overgelaten’.

Overal waar ik vanuit mijn functie kom, zie ik dan ook de behoefte om de zwarte doos rond de ai-toepassing uit elkaar te halen en kunstmatige intelligentie ‘verklaarbaar’ te maken. En opmerkelijk genoeg voel ik die behoefte in alle lagen van een bedrijf, van het topmanagement tot op de werkvloer.

Vertrouwen is cruciaal

"Twee derde van de zakelijke markt hangt een 'ai first'-cultuur aan"

De afgelopen jaren zijn gekenmerkt door een sterke opkomst van ai-gedreven tools op de werkplek, zoals toepassingen voor het identificeren van leads, het verwerken van facturen, het werven van personeel, of het ontwikkelen van marketingstrategieën. Stuk voor stuk tools om taken sneller en efficiënter uit te voeren.

En hoewel de helft van de zakelijke wereld ai als een prioriteit beschouwt, en twee derde een ‘ai first’-cultuur aanhangt, blijft een gebrek aan vertrouwen in ai een grote hindernis bij het uitrollen van ai-tools in bedrijven. Het probleem is namelijk dat werknemers niet voetstoots aannemen dat deze tools hen daadwerkelijk helpen om werk effectiever te maken.

En dat is niets nieuws; ook Gartner gaf al in 2018 aan dat het scheppen van vertrouwen een grote rol speelt bij het uitrollen van ai-tools. Als medewerkers alleen de output van het algoritme te zien krijgen zonder dat het 'waarom' uitgelegd wordt, wanen ze zich weer in hun kleutertijd. ‘Omdat ik het zeg’ is vanaf een bepaalde leeftijd geen valide argument meer, dus ook niet als je geconfronteerd wordt met ai. Het gebrek aan vertrouwen is dan ook een reden gebleken om de desbetreffende toepassing te verwerpen.

Scepsis en boosheid

Veel mensen wijzen ai niet alleen af uit scepsis, maar uit boosheid. Dat is begrijpelijk: die nieuwe tool die taken sneller en beter zou kunnen uitvoeren, kan bedreigend overkomen. En laten we eerlijk zijn: ai kan inderdaad bedreigend zijn, voor bepaalde functies. En dat is precies de reden waarom het concept ‘verklaarbare ai’ langzaam terrein lijkt te winnen.

Dit concept gaat ervan uit dat er behoefte is aan systemen die medewerkers uitleggen hoe een ai-tool werkt en hoe die zijn conclusies trekt. Ai op ai dus. Er zijn al startups opgericht die zich richten op verklaarbare ai. Bedrijven bijvoorbeeld die andere bedrijven helpen om bias te voorkomen, hetgeen cruciaal is in sterk gereguleerde sectoren als de gezondheidszorg en de financiële dienstverlening.

Bovendien zijn er al wetten en regels in de maak met betrekking tot ai, en die zullen ook hun uitwerking hebben op het bedrijfsleven. Bedrijven zullen dan voor de nodige transparantie moeten zorgen, zowel voor hun klanten als voor de autoriteiten.

En dat is een uitstekende ontwikkeling. Machine learning en ai worden nog veel te veel gezien als een bedrijfsrisico. Als iets ook maar een beetje ruikt naar bias - en dat hoeft niet eens waar of bewezen te zijn - geef je je klanten al reden om je producten te wantrouwen. Door een goede regelgeving en een uitleg van hoe ai tot zijn resultaten komt, maak je daar een einde aan.

Spagaat

"Bedrijven kunnen kiezen voor een model dat in alle opzichten geweldig geavanceerd is en dat de concurrentie op elk gebied wegvaagt"

Natuurlijk begrijp ik als geen ander dat de noodzaak aan verklaarbare ai sommige bedrijven in een spagaat dwingt. Want hoe geavanceerder en krachtiger een ai-tool is, hoe ingewikkelder het algoritme erachter is en hoe moeilijker het is om het uit te leggen.

En die spagaat zal nog wel een tijdje blijven bestaan. Vooralsnog kunnen de bedrijven dus kiezen voor een model dat ‘goed genoeg is’, en dat daarom niet al te moeilijk te verklaren is, met de kans dat de adoptie ervan redelijk soepel verloopt. Ofwel kiezen ze voor een model dat in alle opzichten geweldig geavanceerd is en dat de concurrentie op elk gebied wegvaagt. Maar dat wel het risico met zich meedraagt dat het veel lastiger te verklaren is, en snel in onbruik raakt omdat mensen het niet vertrouwen.  

‘Verklaarbare ai’ zal zich verder ontwikkelen, en snel aan belang winnen.

Chris Pope, vice president Innovation bij Servicenow

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Uw reactie

LET OP: U bent niet ingelogd. U kunt als gast reageren maar dan wordt uw reactie pas zichtbaar na goedkeuring door de redactie. Om uw reactie direct geplaatst te krijgen moet u eerst rechtsboven inloggen of u registreren

Vul uw naam in
Vult u een geldig e-mailadres in
Vult u een reactie in
Jaarbeurs b.v. gaat zorgvuldig en veilig om met uw persoonsgegevens. Meer informatie over hoe we omgaan met je data lees je in het privacybeleid
Als u een reactie wilt plaatsen moet u akkoord gaan met de voorwaarden

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2020-05-18T14:05:00.000Z Chris Pope
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.