Hvis der er noget, der kan give enhver it-chef sved i armhulerne, er det frygten for et nedbrud i datacenteret.
Samtidig river økonomichefen sig formentlig i håret på grund af elregniningen, der - som datamængderne - er for opadgående.
Nu har forskere fra Massachusetts Institute of Technology imidlertid set nærmere på de algoritmer, der anvendes i datacentrene - og på, hvilken betydning algoritmerne har for energiforbruget og storagebehovet.
Konklusionen er, at man godt kan mindske antallet af data-kopier i et datacenter og dermed storagebehovet, uden at det behøver at gå ud over brugeroplevelsen.
Det viser sig, at man formentlig kan spare op mod 35 procent i kapacitetsomkostninger og energiudgifter, skriver MIT Technology Review.
Derfor er videofiler en udfordring
Grundlæggende handler den nye type algoritmer om at sikre, at der ikke opbevares flere kopier af eksempelvis pladskrævende videofiler end højst nødvendigt.
Forskere fra Alcatel-Lucent's Bell Labs og MIT vil nu teste tesen i det kommende år med henblik på en kommerciel anvendelse af de nye algoritmer.
Besparingspotentialet på 35 procent svarer ifølge MIT Technology Review i gennemsnit til omkring 16 millioner kroner om året for et datacenter eller 105 millioner kroner i hele datacenterets levetid.
Når der er så stort et potentiale for forbedringer, skyldes det, at en videofil typisk opbevares i forskellige bidder i datacenteret, hvor hver enkelt bid så hentes til brugerens computer midlertidigt, når der er behov for det under afspilningen.
Samtidig opbevares der kopier af de forskellige dele af videofilen i tilfælde af, at et diskdrev går ned.
Sådan fungerer super-algoritmen
Forskerne fra MIT mener, at man ved hjælp af den nye type algoritmer vil kunne mindske storagebehovet og dermed energiudgifterne betydeligt.
"Den nye teknologi, netværkskodning, skærer ned på redundansen uden at ofre den glidende oplevelse," skriver MIT Technology Review.
"Algoritmer omdanner de data, der udgør videoen, til en serie matematiske funktioner, der, hvis der er behov for det, kan bruges til ikke bare den del af videoen, men også til andre dele. Dette giver en form for backup, der ikke er afhængig af, at man opbevarer kopier af data."
De nuværende storage area networks (SAN) er ifølge forskerne designet på en måde, så mange brugere kan services samtidig, og så den gennemsnitlige kvalitet bibeholdes.
Der er særligt fokus på at undgå, at bestemte data-bidder er utilgængelige på et givent tidspunkt, blandt andet ved hjælp af redundans.
Det har imidlertid sine omkostninger, ikke mindst når datamængder bare stiger og stiger.
I det researchdokument, der er udgivet om denne type datacenteralgoritmer, kan man læse, at datacentrenes globale kapacitetsbehov vil være firedoblet i år 2020 i forhold til det nuværende behov.
Mange veje til forbedringer
Datacenteret har været genstand for en betydelig modernisering i en tid, hvor klima, grøn it og energiudgifter for alvor er kommet på dagsordenen.
Det skyldes, at det ikke bare er tydeligt, at mængden af data, der skal opbevares, stiger markant, men også at strømudgifterne næppe vil falde.
Derfor har industrien fokuseret meget på alt fra servervirtualisering til smartere kølemetoder og mere energieffektive servere.
Algoritmerne, der styrer hele slagets gang, kan meget vel være en ny vej til effektiviseringer.
Læs også: