Normalt fokuserer supercomputere på at sætte fut på flops (floating point operations per second).
Nu vil det amerikanske John Hopkins-universitet bygge en supercomputer med et helt andet fokus, nemlig på at opnå det maksimale antal af iops (I/O operations per second), hvilket er den mængde data, der kan flyttes til og fra en computer.
Det gøre computeren bedre til at udføre de opgaver, som man normalt bruger supercomputere til i dag, primært data mining, mener folkene på universitetet.
De er stensikre på, at I/O bliver den store flaskehals for de videnskabsfolk, der anvender supercomputere i fremtiden.
Grunden er, at de simulationer, som supercomputerne typisk bruges til, bliver større og større.
Det betyder, at de optager mere og mere hukommelse, hvilket igen gør, at det bliver sværere at skrive output.
Større end nogensinde set før
Ved at maksimere iops vil det nye system ifølge universitetet blive i stand til at udføre data-analyser, der slet ikke er mulige i dag.
I dag kan langt de fleste supercomputere analysere datamængder på højst 10 terabyte. Kun de allerstørste supercomputere - måske fem-10 stykker i verden - kan håndtere de helt store dataset på 100 terabyte eller mere.
Johns Hopkins universitetet forventer, at den nye tilgang kan føre til en prisbillig supercomputer, der kan håndtere selv de helt store dataset.
Supercomputeren er endnu ikke bygget. Men universitetet forventer, at den vil have en i/O-båndbredde på 400-500 gigabytes per sekund.
Det er omkring det dobbelte af de hurtigste computere i dag.
Peak performance vil imidlertid kun være på omkring 600 teraflops, hvilket er langt under de stærkeste computere i dag, der håndterer mere en 1,5 petaflops.
Opgør med gammel regel
Hele ideen bag Hopkins-computeren bygger på en tommelfingerregel af computer-guruen Gene Amdahl.
Han har påpeget, at en computer bør have en I/O-bit til hver instruktion, den skal udføre.
De fleste supercomputer-arkitekter har hidtil vendt tommelfingeren ned ad til Amdahl-reglen, fordi de mener, at processor-cachen sagtens kan opbevare data, der så kan bruges, når det er nødvendigt.
Hopkins-folkene mener imidlertid, at datasettene nu er blevet så store, at Amdahl-reglen bør anerkendes igen.
Den nye supercomputer vil kunne køre både Windows Server 2008, en kombination af Linux og SQL samt Hadoop.
NSF (The U.S. National Science Foundation) har foreløbig givet 2,1 millioner dollar, og Hopkins-universitetet selv bidrager med yderligere en million dollar (i alt cirka 17 millioner kroner) til udviklingen af supercomputeren, der går under navnet Data-Scope.