Visterin Verdiept: 6 redenen waarom data analytics faalt

notebook

Data zijn de nieuwe olie, zo horen we al te vaak. Maar meer dan eens sputtert de motor. Zes redenen waarom projecten rond data analytics falen.

Veel bedrijven vinden data analytics belangrijk. Met compliance aan wetgeving, klanttevredenheid en betere besluitvorming als belangrijkste drijfveren. Al zijn er in de praktijk veel obstakels waarom analytics projecten falen. Wij sommen enkele redenen op waarom er wel eens zand in de machine komt te zitten:

Reden 1. Garbage in, garbage out

Weinig kwalitatieve data zorgt voor weinig kwalitatieve data analytics. Noem dit gerust een klassieke (hoofd)reden van het falen van projecten: in de praktijk blijkt dat er te weinig aandacht wordt besteed aan de kwaliteit van de data, en dat er hier nog te weinig een beleid rond bestaat.

Volgens het 2018 State of Data Governance van Erwin & UBM heeft bijna 40 procent van de (Amerikaanse) organisaties geen apart budget voor data governance en heeft ongeveer 46 procent er ook geen formele strategie voor.

Volgens Jeroen Van Godtsenhoven, managing director Benelux, situeren de grootste uitdagingen in data analytics zich zowel in the first als in de last mile, met de first line als klassieke uitdaging. ‘De eerste uitdaging bestaat erin om de data te vinden die in orde zijn. Want de data die uit je it-systemen komen, zijn doorgaans niet de data die je nodig hebt.’

Reden 2. Het ‘me too’-fenomeen

Een andere reden waarom data analytics projecten falen, of toch niet het verwachte resultaat opleveren, is wat Jeroen Van Godtsenhoven omschrijft als het ‘me too’-fenomeen. ‘Iedereen wil vandaag bij wijze van spreken wel een project doen rond analytics en ai. Maar men blijft al te vaak steken in de test- en labo-omgeving. De werkelijke uitdaging gaat verder dan algoritmes in het lab’, stelt hij.

Reden 3. De data samen brengen, maar niet echt integreren

Ook integratie staat vandaag bovenaan de lijst met uitdagingen in de wereld van data en analytics, oordeelt Anne Buff, vice-president communicatie voor de Data Governance Professionals Organization op cio.com.

Veel organisaties verzamelen al hun gegevens op één plek. Maar in werkelijkheid integreren ze de verschillende delen niet uit de meerdere gegevensbronnen, legt Buff uit. ‘Co-located data is niet hetzelfde als geïntegreerde data. Je moet een manier hebben om records van ongelijksoortige bronnen te matchen.’

Reden 4. De business units niet goed begrijpen

Geconsolideerde, geïntegreerde gegevens zijn dus van cruciaal belang voor een succesvol analyseprogramma. Maar sommige zakelijke gebruikers hebben misschien een andere versie van die gegevens nodig. ‘Gegevens in één vorm voldoen niet aan de behoeften van iedereen in de hele organisatie, stelt ze.

In plaats daarvan moet it nadenken over data provisioning en de gegevens verstrekken die nodig zijn voor de business case die wordt bepaald door de zakelijke gebruiker of bedrijfsafdeling. Jeroen Van Godtsenhoven van SAS haalt in deze context het voorbeeld van fraudedetectie aan. Een afdeling fraudeopsporing kan bijvoorbeeld speciefieke gegevens gebruiken die niet clean zijn, om naar ‘red flags’ te zoeken. ‘De uitdaging zit erin om een model op te stellen dat integreert met de dagelijkse business. Je moet implementeren waar de actie gebeurt en daar waar de beslissingen worden genomen.’

Reden 5. Vasthouden aan ‘size does matter’

De opslagkosten zijn de afgelopen tien jaar drastisch gedaald, waardoor een bedrijf veel makkelijker dan ooit tevoren gegevens kan opslaan. Dat lijkt in tijden van big data goed nieuws, maar is het niet altijd.

Organisaties hebben vaak het foute idee dat ze meer en meer datasets moeten vastleggen en toevoegen. Maar soms is het: size doesn’t matter en kunnen net meer gerichte datasets betere resultaten kunnen opleveren.

Reden 6. Data voorzien zonder context

Vertekening in data analyse kan resultaten scheeftrekken of zelfs verkeerde conclusies opleveren, die dan leiden tot slechte zakelijke beslissingen. It moet niet alleen instaan voor metadata-beheer, waarbij het de oorsprong en flow van data volgt. Maar het moet gebruikers ook context bieden voor sommige van de resultaten die via analyse zijn geproduceerd.

Het geeft allemaal ook wel de complexiteit weer: met aandacht voor de eerste, maar ook voor de laatste mile. ‘Vroeger was een project rond data analytics bij wijze van spreken een 80/20 project, waarbij de grote uitdaging lag in het eerste deel: het capteren van de data om vervolgens de modelling te doen’, zo vat Van Godtsenhoven het samen. ‘Maar vandaag is het een 80/20/80-project. De integratie in de context van de dagelijkse bedrijfsprocessen is cruciaal geworden.’

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Uw reactie

LET OP: U bent niet ingelogd. U kunt als gast reageren maar dan wordt uw reactie pas zichtbaar na goedkeuring door de redactie. Om uw reactie direct geplaatst te krijgen moet u eerst rechtsboven inloggen of u registreren

Vul uw naam in
Vult u een geldig e-mailadres in
Vult u een reactie in
Jaarbeurs b.v. gaat zorgvuldig en veilig om met je persoonsgegevens. Meer informatie over hoe we omgaan met je data lees je in het privacybeleid
Als u een reactie wilt plaatsen moet u akkoord gaan met de voorwaarden

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2019-01-11T10:48:00.000Z William Visterin
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.