Denne artikel stammer fra det trykte Computerworlds arkiv. Artiklen blev publiceret den Computerworld d. 16. april 2004.
Forretningsløsninger placeret på nettet har givet danske virksomheder et problem med datakvaliteten, viser en undersøgelse blandt de 100 største virksomheder. Ekspert anslår, at virksomhederne kan spare 10-20 procent på at forbedre kvaliteten.
Datakvalitet
Nettet og globaliseringen får datamængderne til at vokse eksplosivt. Det er den naturlige udvikling, når virksomheder og det offentlige sender stadig flere forretningsløsninger på nettet. Men såkaldt real-time enterprise, hvor forretningsbeslutninger skal tages stadig hurtigere går ofte ud over datakvaliteten. Den er ofte så dårlig, at det bliver meget omkostningstungt at rette data og få it-systemerne til at fungere.
Spar 10-20 procent
- Det paradoksale er, at vi lever og arbejder med data og informationer i et vidensamfund. Det er netop derfor de mangelfulde og fejlbehæftede data nu eksponeres og bliver et problem via datawarehouses, business intelligence og andre analyserende og integrerede it-systemer. Et system til kundestyring (CRM) kører jo ikke, hvis virksomheden ikke har et entydigt billede af kunder, produkter og processen, siger administrerende direktør Michael Borges, Platon A/S - et skandinavisk konsulentfirma med rådgivning i virksomhedssystemer med 65 ansatte .
Han er enig med den amerikanske datakvalitets-ekspert Larry English fra Information Impact om, at danske virksomheder ligesom erhvervslivet i USA kan spare 10-20 procent af omsætningen med styring og kontrol af data.
For at få et billede af, hvordan det står til med datakvaliteten i Danmark har Platon fået udarbejdet en markedsundersøgelse blandt de 100 største virksomheder til brug for en heldagskonference i onsdags med deltagelse af blandt andre Larry English, Arla Foods og Ferring Pharmaceuticals.
Alle (99 procent) svarer ikke overraskende, at god datakvalitet er af stor betydning for at drive en effektiv virksomhed. Over halvdelen (54 procent) svarede, at de ikke havde den ønskede datakvalitet i it-løsningerne. Forbavsende mange (87 procent) af virksomhederne gav udtryk for, at de ikke havde den ønskede dataintegration mellem it-løsningerne.
Få bruger standardsoftware
Den hyppigste metode, som de danske virksomheder tjekker kvaliteten i sine data på, er via brugerklager, det svarer 42 procent. Mens hver fjerde virksomhed (26 procent) anvender såkaldt "specialværltøj", som næsten udelukkende er egenudviklet software.
Det egenudviklede software til håndtering af datakvalitet har 42 procent af virksomhederne, 36 procent anvender ikke et værktøj, og de specialiserede softwarefirmaer med den slags datakvalitets-værktøj har stort set ikke solgt noget til virksomhederne i undersøgelsen. Ascential har i undersøgelsen en markedsandel på en procent, mens Avelino, FirstLogic, SAS DataFlux og Trillium noteres for nul i markedsandele.
Værktøj til dataintegration er også stadig præget af virksomhedernes egenudviklede software-værktøjer. Undersøgelsen viser, at hver tredje (34 procent) af virksomhederne selv har udviklet deres løsning til dataintegration, 14 procent har ikke noget, og de mere standardiserede løsninger fra softwareleverandører ligger lavt: IBM Websphere/MQ (4 procent), Ascential/Mercator (2 procent), Microsoft Bizztalk (4 procent), WebMethods (2 procent), SAP XI (2 procent), SeeBeyond og Tibco (nul procent).
Ansvarlig for datakvaliteten i undersøgelsen er især virksomhedens enkelte forretningsområder (62 procent), mens ansvaret kun ligger i hver fjerde (27 procent) it-afdeling.
- Det er den samme tendens, vi ser i amerikanske og andre europæiske virksomheder. I stedet for standardværktøjer, som i det lange løb er billigere og nemmere at opdatere, anvender virksomheder mest egenudviklet software til kvalitet og integration af data, siger Larry English, som mener, at ansvaret for standardisering med fælles datasætværdier skal ligge i virksomhedens topledelse.
Boks:
Ett Arla
Arla Foods er igang med kæmpeprojektet: "Ett Arla". Som Europas største mejeri med 18.000 ansatte, 40 milliarder kroner i omsætning har Arla i to år været i gang med at samle koncernen på ét it-system. Det nye Arla-system, baseret på såkaldte "globale masterdata" er færdigt i 2005.
- Efter opkøb i flere lande som Sverige, Danmark og England havde vi efterhånden 60 forskellige systemer med kunder, 20 systemer med leverandører og 80 systemer med produkter. Det samles som ét system med eksempelvis et unikt produktnummer på SAP, og besparelsen bliver på 30-50 procent, siger GMD-chef, Ellenor Axelsson, IT-Centre, Enterprise Systems, Arla Foods.
Boks:
Den næste it-bølge er datakvalitet
1.000 milliarder dollars
Tallene er svimlende, hvis man skal tro den amerikanske datakvalitets-guru Larry English. Han har i årevis arbejdet som projektansvarlig med såkaldt Information Quality Management i de største amerikanske og europæiske virksomheder. Hans påstand er, at alene det amerikanske erhvervsliv kan spare 10-25 procent af virksomhedernes omsætning ved at få styr på kvaliteten, standardiseringen og entydigheden af data i it-systemerne. I USA villle 10 procent af virksomhedernes omsætning svare til 1.000 milliarder dollars.
- Vi har al teknologien, men vi kan ikke håndtere den uden store omkostninger, fordi grundmaterialet, vore data, ikke er standardiserede i entydige beskrivelser, så de kan integreres i virksomhedens fælles løsninger, siger Larry English, Information Impact.
Datafejl er et klassisk problem, men datakvaliteten har aldrig været så eksponeret som nu, fordi data farer rundt på nettet som aldrig før i alle mulige forretningsløsninger. Problemerne er ikke blot stavefejl i en virksomheds mailinglister, så kataloger går tabt i udsendelsen. Det er værre, at kun fire procent af de vrede kunder klager, resten skaber badwill og forlader virksomheden.
- Nogle virksomheder knækker halsen. Jeg har en farmaceutisk virksomhed som kunde med 80.000 ansatte, 4.000 kundefiler og 50 store databaser. Kunderne og produkterne er datamæssigt defineret forskelligt, så systemerne kan ikke køre sammen, men kun enkeltvis, siger Larry English.
Det er mere reglen end undtagelsen, at data i systemerne ikke kan integreres uden en kolossal forbehandling af data eller efterbehandling af resultatet. Forsikringsselskaber er tit bygget op med forskellige dataværdisæt i hver sin forsikringstype og forskelligt definerede kundedata. hilbert