Efter en skuffende start byder storagevirtualisering nu på så store økonomiske og administrative gevinster, at analytikere råder firmaer til at komme i gang.
Tanken om digital Alzheimers eller Parkinsons kan ryste enhver it-chef, men det var faktisk det, der ramte nogle installationer i storagevirtualiseringens barndom. Hændelserne har givet teknologien et dårligt image, men ifølge analytikerhuse som IDC og Gartner er mistilliden ikke længere på sin plads.
At it-cheferne den gang vovede sig ind på storagevirtualisering skyldtes de mange løfter om store fordele ved at “se” alle eksterne lagringsenheder som én samlet pulje. Teknologien ville give en forenklet administration af storageenhederne, og virtualiseringen vedrørte typisk de store separate lagre, som ikke var koblet op på lokalnettet, men i stedet på eget højhastighedsnet, SAN (Storage Area Network).
Blandt de andre løfter var en kraftig reduktion i behovet for manuel indgriben, højere oppetid og langt bedre udnyttelse af hardware – altså besparelser.
Det gik galt
Konceptet var rigtigt, og i de tilfælde, hvor it-leverandøren holdt virtualiseringen inden for “egne bokse”, gik alt godt. Typisk skete det i den høje ende af markedet.
Der fandtes dog også løsninger til mellemstore virksomheder, hvor hverken penge eller datamængde berettigede til Rolls Royce-løsninger.
Også her var der topkarakterer til den kunstneriske udførelse, men den tekniske udførelse trak ned, og det kunne gå grueligt galt. Hvis hjertet i virtualiseringen – typisk en controller – gik ned, kunne man ende på herrens mark. Ingen anede, hvor data var placeret, for det havde kontrolenheden jo afgjort pr. automatik. Netop det var forudsætningen for den bedre udnyttelse af hardwaren.
Hewlett-Packard var blandt de it-leverandørere, der brændte fingrene. Årsagen var en satsning på en Windows NT-baseret controller.
Læs hele historien i det trykte magasin CIO (april 2006)