Indhold
Der er sat hastighedsrekord for overførsel af data mellem to servere, der står på hver sin side af Atlanten. På 1.037 sekunder blev der overført 859 gigabyte fra Geneve i Schweiz til Pasadena i USA, og det giver en gennemsnitlig hastighed på 6,63 gigabit i sekundet.
Med sådan en hastighed kan man overføre et par timers video i dvd-kvalitet på fem-seks sekunder, men det er nok nærmere videnskabelige data, forskerne vil sende af sted over den hurtige forbindelse fra CERN i Geneve til Caltech i Californien.
De mange data blev sendt af sted via gode, gamle internetprotokol IPv4, hvor der blev brugt otte TCP-forbindelser og sendt store pakker á 9.000 bytes.
Informationerne tilbagelagde 15.766 kilometer, for turen gik blandt andet via Chicago, New York, Houston, Seattle og San Francisco.
Afsendelsen skete fra en Newisys 4300 server med fire Opteron 848 processorer, og det var en server med fire 1,5 GHz Itanium 2-processorer, der tog imod.
Serverne var udstyret med et 10 Gbit/s 64-bit/133MHz PCI-X Ethernet-kort, og i begge ender blev der anvendt et 64-bit styresystem fra Microsoft.
Rekorden drejer sig ikke om båndbredde alene, men om at opnå den højeste båndbredde over den længste distance. Med et resultat på 104,5 terabit-meter/sekund (båndbredde gange afstanden mellem sender og modtager) forbedrede forskerne den hidtidige rekord med mere end 35 procent.
Hvis man vil prøve at slå rekorden, kan man læse reglerne for konkurrencen hos Internet2, der er en organisation bestående af mere end 200 universiteter verden over.
Reglerne siger blandt andet, at datastrømmen skal foregå mellem to maskiner og at data skal indkapsles i TCP-pakker. Dertil kommer, at datastrømmen skal vare i mindst 10 minutter, skal tilbagelægge mindst 100 kilometer og skal gå igennem mindst to routere på vejen.
Den dybere mening med forskningen er at udvikle teknologier, der kan bruges i forbindelse med hurtig overførsel af data mellem datacentre, der er forbundet i de såkaldte grids. For eksempel er det meningen, at forskere over hele verden skal have adgang til de store mængder data, som eksperimenter i partikelacceleratorer resulterer i.