Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het gedachtegoed van de redactie.

Onbetrouwbare analyses: de duistere kant van ai

Computable Expert

Jurriaan Krielaart
Regional director, Dataiku. Expert van Computable voor de topics Datamanagement en Datacenters.

Als we de berichten mogen geloven, investeert elke moderne organisatie tegenwoordig in kunstmatige intelligentie (ai). Volgens onderzoek van Econsultancy en Adobe blijken financiële dienstverleners hiermee voorop te lopen. Hoewel zij daar nu al hun voordeel mee doen, zien we tegelijk hoe een slechte ai-implementatie tot onbetrouwbare analyses leidt.

Uit onderzoek van Econsultancy en Adobe blijkt dat meer dan zestig procent van de leiders bij zevenhonderd financiële dienstverleners ai gebruikt of dat dit binnen een jaar gaat doen. Daarmee heeft de financiële sector een ruime voorsprong op andere sectoren. Het lijdt dus geen twijfel dat de financiële diensten hoog inzetten op ai. Volgens marktonderzoeker IDC zouden de wereldwijde banken alleen al vorig jaar meer dan vier miljard dollar aan ai hebben uitgegeven. Dat is een enorme investering, die niet voor niets is gedaan. Toch blijken de resultaten sterk afhankelijk van de gebruikte data.

Vervuilde gegevens

"De gegevens die in een ai-engine terechtkomen moeten om te beginnen ‘schoon’ zijn"

De meeste financiële dienstverleners beschikken over zeer veel informatie over individuen. Met ai kunnen ze deze schat aan informatie analyseren, om hun klanten vervolgens beter gepersonaliseerde financiële producten aan te bieden, en zichzelf als organisatie onderscheiden in een markt vol standaardproducten.

Helaas is ai geen wondermiddel. De gegevens die in een ai-engine terechtkomen moeten om te beginnen ‘schoon’ zijn. Dat is best lastig, aangezien vervuilde gegevens eerder regel dan uitzondering zijn. Data vervuilen bijvoorbeeld als verschillende afdelingen van grote financiële dienstverleners hun gegevens in afzonderlijke datasilo’s opslaan. In zo’n omgeving is het vrijwel onmogelijk om alle bestanden en informatie uniform te krijgen. Namen zijn op verschillende manieren gespeld, adressen komen niet overeen… De transactiedata, rekeningnummers en persoonlijke informatie kunnen ook in verschillende formaten in verschillende datasilo’s terechtkomen. Het is vrijwel onmogelijk om die gegevens automatisch met elkaar in overeenstemming te krijgen, en dat maakt nauwkeurige analyseren onmogelijk. Vervuilde gegevens kunnen ook jarenlang verborgen blijven, waardoor het nog moeilijker is om ze te verwerken wanneer ze daadwerkelijk worden gevonden.

Volgens MIT Sloan Management Review is slechte data "de norm" en kost het organisaties gemiddeld vijftien tot 25 procent van hun omzet. ‘Deze kosten worden veroorzaakt door mensen die met slechte data werken door fouten te corrigeren, bevestiging te zoeken in andere bronnen, en de onvermijdelijke fouten die hieruit voortvloeien.’

Als dit de gegevens zijn waar ai-systemen mee moeten werken, dan zal het resulteren in zeer onbetrouwbare inzichten. Sterker nog, volgens Michele Goetz van Forrester Research is één van de grootste barrières bij het in productie brengen van een ai-pilot het gebrek aan goed beheerde gegevens om ai-oplossingen trainen.

Zelfs IBM’s veelgeprezen Watson heeft met datavraagstukken te kampen gehad. IBM en Watson beloofden bijvoorbeeld aan de Universiteit van Texas MD Anderson Cancer Center om de kankerzorg te transformeren met behulp van ai. Dit project kon de hoge verwachtingen bij lange na niet waarmaken, mede door de moeite die het kostte om ai-software te integreren met gecompliceerde gegevens uit de gezondheidszorg.

Data voorbereiden op ai

Het mag dus duidelijk zijn: voordat organisaties ai-oplossingen inzetten, moeten zij eerst hun gegevens op orde krijgen. Dat omvat onder andere de volgende zaken.

  • Gegevens verenigen

Dit geeft organisaties een volledig overzicht van alle gegevens, wat het opsporen en corrigeren van fouten makkelijker maakt. Een marketingactie om iemand een nieuw financieel product te verkopen, zal altijd falen als in een persoonlijke aanbieding geen correcte naam, adres of financiële gegevens staan.

  • Gegevens integreren

Door gegevens uit verschillende silo's te integreren, kan ai gemakkelijker nuttige inzichten genereren. Zo hoeft een ai niet twee afzonderlijke datasets te analyseren om een volledig beeld te krijgen van de persoonlijke wensen van een klant. Ai heeft veel data nodig, en daarom is het noodzakelijk om alle gegevens van verschillende afdelingen van een organisatie beschikbaar te maken voor de ai-systemen.

Dit zal helpen om het vertrouwen in data te vergroten. Veel gegevens worden namelijk onbeheerd opgeslagen, zonder enige informatie over hun herkomst - wanneer ze zijn gecreëerd of gewijzigd, en door wie. Zulke metadata zijn van cruciaal belang om de gegevens te kunnen vertrouwen die voor een analyse aangewend worden.

  • Gegevens beveiligen

Gegevens zijn alleen veilig te delen als ze op de juiste manier beveiligd zijn. Dit werkt het best als de toegang tot specifieke gegevens ook op database-niveau is in te regelen. Dan is het bijvoorbeeld mogelijk om een dossier met een externe partij te delen, en deze toegang te ontzeggen tot de persoonlijke gegevens in het document. Dit leidt zowel tot het veiliger delen van data als bredere analyses.

 

Wet- en regelgeving

Voor financiële dienstverleners heeft data in de juiste vorm gieten ook voordelen buiten data-analyse en ai. Zo kunnen ontbrekende, onvolledige en onnauwkeurige gegevens ook leiden tot verkeerde trades en tragere beslissingen. Daarnaast komt er steeds meer regelgeving rond data en privacy. Elke inspanning om gegevens te verenigen en op te schonen, zal helpen om sneller aan de rapportages te voldoen, die met die nieuwe wetten en regels gepaard gaan.

En goed voorbeeld hiervan is ABN Amro, dat grote hoeveelheden ongestructureerde en gestructureerde gegevens in één centrale operationele datahub heeft geïntegreerd. Door al deze gegevens bij elkaar te brengen in één consistente omgeving kan de bank snel en flexibel aan al zijn interne en externe rapportageverplichtingen voldoen. Ai en data-analyse is hier niet eens het eerste gebruiksdoel, maar het ligt voor de hand dat deze datahub in de toekomst kan helpen om allerlei markttrends over handelstransacties bloot te leggen.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Sponsored content 

HPE information Governance solutions: controle over uw data

Door datagroei, hogere gebruikerseisen en regelgeving wordt datamanagement een steeds grotere uitdaging. En dat terwijl uw bedrijfsdata ook uw waardevolste bezit is. Met de flexibele, modulaire datamanagement-oplossingen van Hewlett Packard Enterprise neemt u het heft in handen en haalt u bruikbare inzichten uit uw data tegen zo laag mogelijke kosten. 

Ontdek in deze whitepaper hoe u Information Governance proactief aanpakt met maximaal voordeel en minimale kosten.

Lees hier verder.


Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2019-06-21T09:55:00.000Z Jurriaan Krielaart


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.