Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Kun 34 procent af ledere har høj tillid virksomhedens data og dens analytiske kapacitet. 56 procent nærer moderat tillid og 11 procent har lav tillid.
Spørger man til virksomhedernes udfordringer på vejen mod præcise, kontekst-relevante og transparente data, placerer 55 procent af lederne datakvalitet og datakonsistens som største udfordring.
Problemer med at integrere data fra forskellige forretningsapplikationer ligger på andenpladsen med omkring 48 procent. Til sammenligning peger kun omkring 29 procent på mangel på dataspecialister.
Fravær af data og fravær af analytiske værktøjer ligger lavest nede på listen over udfordringer og opleves blot af omkring 20 procent.
Klumpet rå-olie
Alle disse tal kommer fra en international undersøgelse blandt 1200 ledere og CIO’er gennemført af SAP i slutningen af 2024.
I en tid, hvor data er den nye olie, har mange virksomheder altså problemer med ledelsens tillid til pålideligheden af deres data.
For at blive i metaforen er der meget stor forskel på klumpet rå-olie og raffineret højoktan benzin. Kæden fra rå data til ledelsesmæssig indsigt og handlemulighed er altså ikke alle steder lige velsmurt.
Hvis jeg kigger ud over det danske landskab, så tror jeg egentlig, at tilliden til ledelsesinformationen er noget højere. Men jeg ser også, at mange virksomheder har en hær af data scientists, data stewards, analytikere og controllere til at opbygge rapporteringer og ledelsesinformation.
Potentiale for rationalisering
Samtidig er der et overlap på op til 80-90 procent af den opbyggede funktionalitet. Alle ønsker jo at styre efter et sæt af KPI’er, og hvis de kommer fra et ERP-, Supply Chain Management-, Finans- eller HR-system, så er der altså en meget stor fællesmængde, som alle ønsker at have styr på.
Her ligger et rationaliseringspotentiale og venter på os gennem standardisering. Det er ikke nødvendigt, at hver virksomhed for sig bygger de samme modeller.
I stedet bør de systemer, hvor data fødes og lever, være i stand til at levere færdige ”dataprodukter” til analytiske formål.
Altså gøre det nemt at komme fra rå driftsdata og til aggregeret overblik og kritisk KPI-styring.
Sådan et ”dataprodukt” kan måske dække 80 procent af alle virksomheders behov, og så kan in-house dataspecialister fokusere på at klargøre data til de sidste 20 procent.
Samme rationale ligger bag, at ingen virksomheder i dag egenudvikler ERP-systemer.
Værditab i kopiering
Selv om data skal bruges til analytiske formål bør de bevare deres oprindelige semantik, historik og forretningsmæssige kontekst.
Vi skal gøre op med fortidens værditab i forbindelse med eksporten fra driftsmiljøet via ETL-processen til en data lake et data warehouse eller andre analytiske sandkasser.
Men så er der problemet med data fra flere kilder.
Vi har en meget lang tradition for rent faktisk at kopiere data væk af deres oprindelige system og lægge dem et andet sted af hensyn til et analytisk formål.
Her kan de så joines med data fra andre systemer og sød musik i form af klog indsigt kan opstå.
Forplumrede data lakes
Brugen af data lakes er ofte en ”hjemmebygget” vej fra data til færdigt resultat. Derfor sidder der mange ressourcer internt eller hos konsulentfirmaer og gennemløber de samme ti trin for at bygge næsten de samme beregninger på 1.000 forskellige måder (ESG-rapportering er et aktuelt område, hvor vi ser dette dobbeltarbejde).
Udover at data lakes kan blive noget forurenede, forældede og forplumrede, så vil det næsten altid være langsommelige processer, og data vil tabe nogle af sine attributter i kopieringsprocessen.
Det er et problem i en AI-tid, fordi vi gerne vil automatisere effekten af den analytiske indsigt i konkret handling.
Det vil sige at det analytiske output, skal skabe handling i drift-systemerne og derfor skal outputtet alligevel sendes retur til kildesystemet.
Glasdør på dit lakehouse
Mit bud er, at vi gør klogt i at lade data blive i driftsystemerne, men vi skal have en fuldstændig transparent og åben ”glasdør” fra vores lakehouse til vores driftsystemer.
Det skal være lige så nemt for data scientists at arbejde med data i eksempelvis HR- eller ERP- eller CRM-systemet, som hvis de lå i en data lake. De ligger bare i en ”udestue”.
En AI-agent skal have et interface til alle data, og det kan være i form af en knowledge graph, som sprogmodellen kan spørge. Driftsystemet skal altså være født med et ”API” til AI-agenter.
I mine 17 år i SAP har jeg aldrig oplevet en så massiv og pludselig interesse på et specifikt tema. Og jeg var ellers med ved lanceringen af HANA in-memory databasen og S/4HANA ERP-løsningen.
En stor række SAP-kunder (det er jo tilfældigvis er dem, som jeg er eksponeret for) efterspørger muligheden for at kombinere ERP-procesdata med øvrige datakilder - især når de planlægger at bruge AI og ML.
Interessen går især på at få adgang til data uden at skulle kopiere og genskabe forretningskonteksten. Kalenderen er fuld de næste to måneder, og på vandrørene hører jeg det samme i andre dele af verdenen.
Fordelene ved denne ”nul-kopiering”-strategi for analytisk indsigt er hastighed og anvendelighed. Det analytiske output vil meget hurtigere kunne skabe værdi, når det fødes direkte via komplette data og tæt integreret i kernesystemerne.
Og bare rolig: Der er ingen data scientists, der bliver brødløse i de næste årtier.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.