Læs også:
Her er de vigtigste it-trends i 2012
Computerworld News Service: Store virksomheder, som overvejer deres strategi i forhold til såkaldt big data, er nødt til at indse, at det ikke kun handler om at analysere de enorme mængder data.
Det handler også om, hvordan dataene for eksempel lagres, fremhæver Amazons teknologidirektør, Werner Vogels, under en præsentation ved fagmessen Cebit.
Vogels' præsentation havde overskriften Data uden grænser, og udover at opfordre store virksomheder til at kigge på det store billede, fremlægger han her selvfølgelig også, hvordan Amazons cloud kan gøre det lettere at implementere systemer til big data.
"Big data handler ikke kun om analyse, det handler om hele dataenes pipeline. Så når du overvejer løsninger til big data, er du nødt til at overveje alle de forskellige trin: Indsamling, lagring, organisering, analyse og deling," påpeger Vogels.
For at få fuldt udbytte af de tiltagende mængder data, som mange virksomheder indsamler, og for at få konkurrencefordele, er der ifølge Vogels nødt til at ske innovation på alle disse områder, og altså ikke kun på analyseområdet.
Amazon har længe beskæftiget sig med big data og dataanalyse i et forsøg på at levere mere målrettede løsninger og mere relevante anbefalinger.
Lektien har indtil videre været, at det i dette tilfælde gælder, at jo større des bedre, fortæller Vogels. Når der er blevet begået fejl, kan det føres tilbage til, at der ikke har været nok data til rådighed til for eksempel at underbygge en anbefaling, forklarer han.
Ikke alene anvender Amazon selv big data, men big data hjælper også til at øge efterspørgslen på selskabets cloud, der ifølge Vogels fungerer som en stor katalysator for dette marked.
"Det er virkelig vigtigt, at man har adgang til en grænseløs kapacitet, når man bevæger sig ind i denne verden af big data. Man må ikke være begrænset i forhold til, hvordan man lagrer ting eller behandler dem," siger Vogler.
Sådan fungrer det
Amazon Web Services tilbyder et antal services, der kan hjælpe virksomheder til at indsamle, lagre, organisere, analysere og dele deres data.
For eksempel gør Direct Connect det muligt for virksomheder at etablere en dedikeret netværksforbindelse fra en kundes site til Amazon. Til de virkelig store mængder data findes der AWS Import/Export, som gør det muligt for virksomheder at sende fysiske lagringsmedier til Amazon, som derefter uploader dataene til sin cloud-storage.
"Man skal ikke undervurdere en FedEx-kasses båndbredde," påpeger Vogels spøgefuldt.
Af andre af Amazons services, der passer godt til big data, kan nævnes Simple Storage Service, databasen DynamoDB NoSQL og Elastic MapReduce, der er baseret på Apache Hadoop, og som kan bruges til dataintensive analyseopgaver.
De påståede fordele er de samme som ved brug af cloud-services på andre områder: Der betales kun for de anvendte ressourcer, hurtigere udrulning, mindre administration samt mulighed for hurtigt at udvide med mere regnekraft.
Vogels havde også lidt hjemmearbejde til sit publikum: Han anbefaler en bog med titlen The Fourth Paradigm: Data-Intensive Scientific Discovery, som gennemgår baggrunden for big data.
Oversat af Thomas Bøndergaard
Læs også: