BLOG

Koppel slechte gegevens en het mislukken van digitale transformatie

Bij een pizza is de generieke bodem net zo belangrijk als de verschillende vullingen erop. Een slechte bodem bederft tenslotte elke pizza, hoe goed en smakelijk de inhoud ook is. Hetzelfde geldt voor data en applicaties. Kwalitatief hoogwaardige data is het uitgangspunt – en dus de bodem – van elke applicatie. Voor alles geldt immers: ‘garbage in, garbage out’. Hoe beter u de vertrekdata kunt kwalificeren, hoe hoger de kwaliteit van de grondstof voor de toepassing, hoe beter elke output van die toepassing zal zijn. Procesgerichte kwaliteitsborging begint bij de data-invoer. Data zijn de grondstof, de bouwstenen en palen voor de fundering – de bodem – van ons informatiebeheer.

Digitale transformatie

Slechte datakwaliteit is de belangrijkste oorzaak van het mislukken van digitale transformaties. Daarom moeten bedrijven prioriteit geven aan datatransformatie. Immers, als de transformatie niet datagedreven wordt ingericht, wordt het nieuwe informatiemanagementsysteem op drijfzand gebouwd. Zeker als we in die digitale transformatie willen profiteren van AI, big data en machine learning. Je kunt miljoenen investeren in datameren, clouds, datawetenschappers en Chief Data Officers, als de brondata van slechte kwaliteit is en blijft, is dat weggegooid geld.

Toch mislukken veel transformaties. En niet zomaar een mislukking, maar spectaculair! Ongecontroleerd, bloemkool en nauwelijks te stoppen. Talloze rapporten en onderzoeken tonen aan dat meer dan 80 procent van de big data-projecten mislukken. Er is de laatste tijd genoeg geschreven over hoe bedrijfsculturen en ongecontroleerde ambities leiden tot mislukte big data-projecten. Hier concentreer ik me op hoe slechte datakwaliteit over het hoofd wordt gezien en verantwoordelijk is voor een van de belangrijkste oorzaken van het mislukken van digitale transformaties.

Gegevenstransformatie

Datatransformatie, het proces om ruwe data om te zetten in een bruikbaar formaat van goede kwaliteit, wordt vaak ten onrechte buiten digitale transformatieprojecten geplaatst. Bedrijven gaan ervan uit dat ze, omdat ze datameren, nieuwe clouds, nieuwe datacenters of nieuwe applicaties implementeren, hun data automatisch zullen transformeren. Dat is een gevaarlijke veronderstelling. De nieuwe ERP die uw bedrijf zes maanden geleden heeft geïmplementeerd, stimuleert de operationele processen niet omdat gegevensproblemen in het oude systeem niet zijn aangepakt. De nieuwe CRM waarin uw marketingteam heeft geïnvesteerd om diepgaande klantinzichten te verkrijgen, levert niet de verwachte ROI op, omdat het team geen datagovernance- of datakwaliteitskader heeft.

Als u het verschil tussen digitale en gegevenstransformatie begrijpt, kunt u kostbare fouten voorkomen. Om datagedreven te zijn, moeten organisaties beginnen met het begrijpen van hun data, het oplossen van inconsistenties en het transformeren van hun data. Digitale transformatie is het einde van het proces – datatransformatie is het begin!

Struikel blokken

Wat zijn de veelvoorkomende struikelblokken die we vaak tegenkomen bij digitale transformatie? Gegevens waren verborgen in verschillende bronnen. Vaak ook technisch verschillende systemen met verschillende datastructuren. Hoe groter het bedrijf, hoe groter de kans dat gegevens in veel verschillende databases worden opgeslagen, waardoor de organisatie een onevenredig en onnauwkeurig begrip van hun gegevens krijgt. Dataclassificatie kan hierbij helpen om de data logisch te ordenen en weer bij elkaar te brengen.

Met mensen die handmatig gegevens invoeren, is er altijd een grote kans op slechte gegevens. Een mensafhankelijk proces voor gegevensverzameling zal altijd de belangrijkste oorzaak zijn van problemen met de gegevenskwaliteit. Een typfout, een contextueel begrip van een naam of locatie, een gemist nummer, enz. zijn allemaal kleine gevallen die de kwaliteit van de gegevens in de loop van de tijd beïnvloeden. Helaas komen we vaak veel oude data-omgevingen tegen die nooit zijn schoongemaakt voor de aanwezige fouten. Mensen weten vaak niet eens wat de datakwaliteit is van de data die ze bezitten.

Dubbele gegevens

Een bedrijf kan dezelfde consumentengegevens voor meerdere doeleinden verzamelen. Jaar na jaar worden dezelfde gegevens op honderd verschillende manieren vastgelegd in veel verspreide gegevensomgevingen. Een verzekeringsmaatschappij worstelde met de jaarrekening vanwege dubbele gegevens die in de loop van de maanden zouden worden verzameld. Een retailer moest zijn bedrijfsuitbreidingsplannen met zes maanden uitstellen omdat hun gegevens niet het juiste beeld schetsten. Welke gegevens zijn immers waar? Welke gegevens zijn correct als er vier prijzen worden gevonden voor een productprijs?

Gegevens die geen uniforme bron van waarheid bieden: een bank had moeite om gepersonaliseerde ervaringen voor hun klanten te creëren omdat elk van hun diensten (leningen, hypotheken, leningen voor kleine bedrijven, verzekeringen, enz.) eigen gegevensbronnen had. Klantinformatie werd keer op keer gekopieerd omdat ze verschillende diensten van de bank gebruikten. Zonder een geconsolideerd beeld van hun klanten was de bank niet in staat om de reis van de klant te begrijpen en persoonlijke ervaringen te bieden. Klantgericht werken is alleen mogelijk als de klantgegevens datacentrisch zijn georganiseerd. En tegenwoordig worden klantdata zelfs over verschillende clouds verspreid en weten we nauwelijks welke data in welke cloud zit.

Voorbereiding

Gegevens die niet zijn voorbereid op business intelligence: het opschonen van gegevens is een technisch ETL-proces (Extract, Transform, Load), maar met een reële impact. Gegevens die niet zijn voorbereid, dus niet opgeschoond of geoptimaliseerd, kunnen niet worden gebruikt voor business intelligence. Als een bedrijf concurrentiekansen of belangrijke inzichten in het publiek hoopt te verwerven, kunnen ze dat niet doen met onvolledige, onnauwkeurige, verouderde, dubbele gegevens.

Net als andere grondstoffen is de kwaliteit en juiste samenstelling van data cruciaal voor een proces en het resulterende eindproduct. Zeker als dat proces geautomatiseerd wordt, is een goed beheerde grondstofkwaliteit essentieel om de proceskwaliteit te kunnen garanderen. In de kapitaalgoederenindustrie is dat een goed idee. In de niet-professionele wereld van datahuishoudens helaas (vaak nog niet). Applicaties en clouddiensten worden verkocht als het wondermiddel om alle procesuitdagingen aan te gaan. Helaas vergeten ze je te vertellen dat dat alleen klopt als de grondstof puur en correct is. Want daar zijn applicatie- en cloudleveranciers niet verantwoordelijk voor. Dat is de klant die dat moet doen.

Laten we beginnen

Begin met het creëren van meer waarde door data in uw organisatie te gebruiken met onze begeleiding

Similar Posts