Flash er blevet et af tidens mest hotte emner i it-branchen og noget, som mange overvejer i disse år.
I kølvandet på de nye teknologier er der kommet en række nye spillere, som tilbyder flash-løsninger med mere eller mindre succes. Hertil kommer endeløse artikler om NAND-teknologier, som måske eller måske ikke bliver til noget i fremtiden.
Hvad er fup og fakta i den nye verden?
Et af de spørgsmål, man bør stille sig selv, er, om flash-teknologien er blevet modent til datacenteret, hvor kravet til oppetid, kontinuerlig performance og en konkurrencedygtig GB-pris er afgørende.
Der er ingen tvivl om, at flash er kommet for at blive, men der tegner sig nu et klart billede af begyndervanskeligheder med første generation flash-systemer, som anvender SSD-diske.
Grundlæggende forsøger flashleverandørerne at nedbringe GB-prisen via kapacitetsoptimering, hvor det bliver muligt at gemme mere data pr. TB.
Men det sker ikke uden omkostning for datacenteret. Min erfaring fra talrige møde med it-chefer er, at de oplever to gennemgående problemer:
- Ved kapacitetsoptimering fluktuerer performance og kan i værste fald reduceres med op til 50 procent.
- Datakompression er effektivt, men det giver potentielt systemstop, når data eksempelvis krypteres.
Note: Den mest almindelige komprimeringsfaktor er 2:1. Det betyder, at et flash-system på 20TB kan lager 40TB data.)
Et spørgsmål presser sig på. Kan man som kunde acceptere fluktuerende performance og risiko for, at systemet pludselig låser? Nej, vel?
Første generation flash-system
De fleste flash-systemer bygger på et koncept, hvor det er den centrale controller, som ene og alene håndterer alle funktioner:
- Data-input/output.
- RAID-paritetsberegning.
- Kapacitetsoptimering, eksempelvis ved online- eller post-komprimering.
- Snapshot.
- Remote-spejling.
- Vedligeholdelse af SSD-flashdiske.
Jo flere funktioner, som aktiveres, jo mere belastes CPU-ressourcerne på controlleren, og i sidste ende påvirker det performance over for applikationerne.
En ting er performancenedgang, noget andet er svagheden ved kapacitetsoptimering. Hvis en bruger aktiverer datakryptering, kan man opleve, at systemet løber fuld og dermed låser.
Det er nogle af de ulemper, som kunderne oplever og dermed vanskeliggør udbredelsen af første generation flash-system.
Findes der en mere gennemtænkt måde at designe Flash-systemer på?
Den anden metode bygger på et koncept, hvor funktionerne placeres på henholdsvis controlleren og de bagvedliggende flash-diske.
Det er et mere avanceret koncept, som introducerer en ny dimension af skalerbarhed, som både håndterer performance og kapacitetsaspektet.
Her vil antallet af CPU-kerner øges, når der udvides med flere Flash-diske (se figuren).
Performance-udfordringen ved kapacitetsoptimering løses ved at placere CPU-kerner på FMD-disken.
I modsætning til den "simple" SSD-disk indeholder en Enterprise flash-disk 4 CPU-kerner, som bruges til at aflaste controlleren med online data-komprimering samt RAID-paritetsberegning og andre nødvendige funktioner.
Det sikrer en høj, vedvarende performance med kontinuerligt lave svartider samtidig med, at online data-komprimering udføres.
Hvordan forhindrer man, at systemet låser, når data krypteres?
Det sker via den indbyggede sikkerhedsfunktion, som forhindrer systemet i at løbe tør for ledig kapacitet, når brugerne begynder at anvende datakryptering.
Her kan Enterprise flash-systemer flytte datablokke over på et andet diskmedie, indtil systemet er udvidet med mere flash-kapacitet. På den måde undgås låsning af systemet
Der er meget, som tyder på, at vi er nået det modenhedspunkt, hvor flash-systemet kan få en større udbredelse i it-branchen, og det kræver blot, at vi designer vores løsninger rigtigt.
For at få flash-diske til at performe optimalt, skal flash-controlleren fra Enterprise-versionen i spil.
Netop denne løsning er i enorm vækst for tiden, så branchen er ved at knække koden. Hvis man skal stole på sit regiment af diske, skal man have en god general.