Den 10. september sendes den første protonstråle gennem den 27 kilometer lange Large Hadron Collider ved den schweizisk-franske grænse. Den gigantiske partikelaccelerator skal smadre protoner sammen under forhold, der minder om tilstanden i universet kort efter Big Bang. For det er selve universets oprindelse, som står på forskningsplanen hos CERN - og når forskerne ikke har travlt med at smadre elementære partikler i den gigantiske underjordiske tunnelring, bruger de tiden til at opfinde banebrydende computer-teknologi. Nærmest som et biprodukt.
Sådan skete det i begyndelsen af 90'erne, hvor britiske Tim Berners-Lee fornøjede sig med at udvikle et hypertekst-system til udveksling af forskningsresultater. Det blev til World Wide Web - og resten er historie.
Meget tyder på, at CERN (forkortelse for »Conseil Européen pour la Recherche Nucléaire«) igen bliver udgangspunkt for det næste afgørende spring fremad i computerverdenen - og igen er teknologien kun et biprodukt af forskernes egentlige arbejde. Large Hadron Collider (LHC) skal producere mellem 12 og 14 petabyte data om året - det svarer til indholdet fra mere end 20 millioner cd'er.
En enkelt detektor i LHC kommer til at behandle datamængder, der svarer til et dataflow på størrelse med hele det europæiske telekommunikations-netværk.
For at håndtere denne enorme datamængde bliver forskerne nødt til at låne computerkraft hos andre institutter i resten af verden - og det kræver en helt ny globalt it-infrastruktur, som går under betegnelsen »the grid«. Det nye LHC Computing Grid, som er udviklet med støtte fra EU, skal gøre det muligt at trække på supercomputere i hele verden for at behandle de data, som bliver produceret gennem eksperimenterne i det kommende anlæg.
Grid-teknologien indebærer at selv de mest komplekse og krævende regneopgaver kan styres fra en normal skrivebords-computer. Forskerne behøver ikke beskæftige sig med, om regneopgaven løses på den lokale maskine eller fordeles mellem computere på den anden side af kloden.
Men det er ikke kun forskerne i Geneve, som får gavn af teknologien. På længere sigt vil virksomheder og private brugere få adgang til at stikke sugerøret i den globale computertank og betale sig til næsten ubegrænset regnekraft, som leveres gennem den almindelige internet-forbindelse.
CERN har indrettet et test- og udviklingscenter, OpenLab, hvor kommercielle virksomheder kan få afprøvet deres nyeste grid-teknologi. Det schweiziske forskningscenter har indgået samarbejdsaftaler med IBM, HP, Intel, Enterasys og Oracle, som bidrager med kontant støtte og udstyr - og til gengæld kan få testet deres produkter i et krævende grid-miljø.
Denne form for fjernadgang til computerressourcer kaldes også for cloud computing - et bredt begreb, der omfatter alt fra webmail og Google Apps til P2P-netværk og Amazons S3-tjeneste. Men fælles for dem er, at de giver adgang til it-funktioner »i en sky« som en service, hvor brugeren ikke skal beskæftige sig med den bagvedliggende infrastruktur.
Fra den 10. september begynder datastrømmene at flyde fra CERN til regnecentre over hele Europa - og det bliver en stor udfordring for kapaciteten i de systemer, der skal behandle de mange data. Men håbet er, at verdens største videnskabelige instrument kan føre forskerne på sporet af helt nye partikler - og måske tilmed skabe et lille sort hul. Men helst ikke for stort. Skeptikere frygter nemlig, at LHC vil sætte gang i en kædereaktion og føre til verdens undergang.