Læs også:
Derfor handler big data ikke kun om mega-analyser
Computerworld News Service: De store virksomheders it-afdelinger har på grund af en mangel på kompetencer i markedet svært ved at høste de fordele, som big data kan give, vurderer analysedirektør hos IDC, Susan Feldman.
Ved en rundbordsdiskussion i sidste uge arrangeret af Autonomy, forklarede Feldman, hvordan kompleksiteten af teknologien inden for big data kræver avancerede kompetencer, der er ret sjældne blandt it-folket.
"Der eksisterer ikke ret mange med høje kompetencer inden for disse nye teknologier. Hvordan skal erhvervslivet kunne ansætte folk, hvis de ikke findes?" spørger Feldman retorisk.
Der findes værktøjer
Den mest udbredte teknologi, der anvendes af virksomheder til analyse af hundreder af terabytes eller endda petabytes af ustrukturerede data, er et open source-værktøj ved navn Hadoop.
Hadoop bruger en proces, der kaldes parallelprogrammering, som gør det muligt at dele en analyseopgave op, så den kan afvikles på hundredvis af servere, der samtidigt tygger sig igennem hver deres del af den store mængde data.
Alle dataene gemmes i et filsystem ved navn Hadoop distributed file system (HDFS), der fungerer som et fladt filsystem, der kan spredes over mange servere.
Der er dog enighed i branchen om, at Hadoop er et ekstremt komplekst system at mestre, og at det kræver høje udviklerkompetencer. Løsningen mangler også standarder og et effektivt økosystem.
"Der er meget få Hadoop-eksperter i omløb, og alle de eksisterende værktøjer er ganske ringe. Så ikke alene mangler der Hadoop-eksperter, men der mangler eksperter, der ved, hvordan man administrerer et Hadoop-filsystem ved hjælp af dårlige værktøjer," siger Feldman.
Leverandører må hjælpe
Feldman opfordrer selskaber såsom Autonomy, EMC, Teradata og IBM til at forbedre de eksisterende værktøjer for at afhjælpe denne mangel på kompetencer.
"Hvis leverandørerne kunne levere ekspertisen, hvis de kunne holde softwaren opdateret, så ville det lette byrden for de store virksomheders it-afdelinger," vurderer hun.
"Det er en meget svær opgave at integrere alle brikkerne inden for big data til en velskabt arkitektur, så alting kan interagere med alt andet. De fleste, der arbejder med den slags, ville sandsynligvis med glæde ansætte 10 ekstra medarbejdere, men de findes bare ikke."
IDC's prognose lyder på en årlig vækst på 39,4 procent i omsætningen fra hardware, software og services inden for big data mellem 2010 og 2015.
Den prognose tager dog ikke hensyn til open source-løsningerne, der ellers udgør en anseelig andel af anvendelsen hos de store virksomheder, men er besværlig at måle.
Oversat af Thomas Bøndergaard.
Læs også: