Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Cloud-hostede it-miljøer er blevet en fast del af infrastrukturen i mange organisationer over de senere år.
Mange steder har man op til flere i spil for at kunne løse forretningskritiske problemer, skabe innovation og have adgang til en stor portefølje af for eksempel dataanalytiske redskaber.
Af samme grund er området da også vokset eksplosivt og mange virksomheder vælger af god grund at sprede indsatsen over flere leverandører, både fordi det kan være nødvendigt for overhovedet at få adgang til visse programmer og services, for at sikre contingency og en bedre datasikkerhed, eller fordi det er påkrævet af eksempelvis kunder eller andre interessenter.
Så nu kender mange af os til koncepter som private, public og hybride cloudmiljøer.
Men mens udviklingen har gjort meget muligt og lettet adgang til de nyeste versioner af forskellige softwareprogammer, udviklingsmiljøer med videre, så er alt, der har med skyer at gøre jo ikke lamme-formet og snehvidt; især ikke når man forsøger at skabe overblik på tværs af de forskellige platforme.
Det må en del data scientists erkende, når de trækker data ud og skaber analyser med forskellige kilder fra de forskellige cloud-platforme.
Kun én procent har ingen problemer
I en rapport og spørgeundersøgelse blandt større organisationer i Norden, England og Irland, som min egen virksomhed har været med til at få udarbejdet, svarer 99 procent, at de har udfordringer med at få én version af sandheden frem, når de kører analyser på tværs af cloudplatforme.
Det er et problem, for tallene viser også, 80 procent af de danske respondenter har tre eller flere cloudmiljøer i spil i deres organisationer.
De fleste melder, at de har bekymringer omkring hvorvidt de kan stole på svaret, når data trækkes fra forskellige cloudmiljøer.
De siger også, at det giver anledning til ekstra arbejde at få skabt ensartethed i datakilderne, så man rent faktisk kan køre en dataanalyse på materialet.
Kun 22 procent af danske respondenter melder, at de kan trække pålidelige svar i realtid fra deres analytiske platform, på tværs af cloudmiljøerne.
Det er af indlysende årsager ikke befordrende for tilliden til datadrevne analyser og de beslutninger, der skal træffes på baggrund af dem.
Så hvordan kan man som eksempelvis CIO så hjælpe sin organisation med at få mere pålidelige svar og nedbringe arbejdspresset hos i en i forvejen meget efterspurgt medarbejdergruppe i dataafdelingen? Det giver jeg et par bud på herunder.
Fem gode råd til at håndtere komplekse cloudmiljøer
- Modenhedsgraden kan variere voldsomt både blandt organisationer og deres leverandører.
Hvis man har været tidligt ude og fået skabt sig nogle erfaringer med multicloud-miljøer, så er man måske i stand til at vurdere både potentiale og risici, når man udvider porteføljen.
Hvis ikke, så bør man sikre sig god rådgivning og en grundig due dilligence proces.
- En umiddelbar besparelse kan dække over skjulte omkostninger.
Der kan være forskellige abonnementsmodeller, som samlet set skaber et fordyrende led, data storage og udgifter til computerkraft er andre steder, hvor prisen hurtigt kan stige.
Samtidig er hastigheden, hvormed man kan udføre dataanalyse med til at sætte det overordnede omkostningsniveau: Når man eksempelvis til et resultat hurtigere (end konkurrenten)?
- Hvis tid er penge i din organisation, så hav et skarpt øje på effektiviteten i den samlede løsning.
En ofte overset post er det ekstra arbejde, som man kan ende med at påføre organisationen, når datakilder skal samles, gøres ensartede og køres igennem en data-analytisk proces.
Har du styr på værdiskabelsen og hvordan der kan skabes transparens i processer og samspillet mellem faggrupper? Letter man jobbet for nogle på bekostning af andre? Indeholder løsningen en tilstrækkelig grad af automatisering – eller kan det skabes?
- Der kan opstå behov for nye kompetencer, alt efter hvilken løsning man har valgt. Visse dataspecialister og systemarkitekter er svære at rekruttere og tidskrævende at uddanne internt.
Det er vigtigt at se på, om også ikke-tekniske medarbejdere kan anvende dataanalyse baseret på cloudmiljøerne på en lettilgængelig måde i forhold til de KPI’er, de hver især bliver målt på.
No/low-code strategier og en sprog-agnostisk analyseplatform kan lette arbejdet for de specialiserede medarbejdere, som ellers får alt for meget hældt på deres tallerken.
- Data er værdifulde.
Derfor skal man til enhver tid vide, hvor den findes og hvor let det vil være at fremskaffe og eventuelt flytte den. Hvordan ser det scenarie ud i din organisation, når cloud-porteføljen vokser? Hvor lang tid vil det tage at sikre data i en kritisk situation, for eksempel i forbindelse med et større nedbrud?
Cloud-udviklingen er ubetinget en positiv ting – men med nye muligheder følger som oftest nye problemstillinger, for eksempel for tilliden til de kritisk vigtige dataanalyser.
De skal håndteres, for som jeg tidligere har fremhævet på denne plads - tillid og transparens er uomgængelige forudsætninger for robust data-innovation.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.