Denne klumme er et debatindlæg og er alene udtryk for skribentens synspunkter.
Her i Hewlett Packard Enterprise har vi tilladt os at tænke stort i den forstand, at vi – ligesom mange andre aktører – har indset, at den gamle x86-arkitektur ikke længere er tilstrækkelig.
Specielt ikke når man tager den massive datatilvækst i betragtning.
Derfor er vi i gang med at udvikle ”The Machine”, som er en helt ny computer-arkitektur, som gør op med de nuværende begrænsninger.
Vi er med andre ord kommet til enden på ”Moore’s Law”, der siger, at antallet af transistorer eller komponenter i et integreret kredsløb vil fordobles hver 18 måned.
Enden på ”Moore’s Law” er det bedste, der er sket for computing siden starten på ”Moore’s Law," fordi vi nu kan gentænke og redesigne fremtidens computer.
I HPE har vi valgt at fokusere vores R&D - Research & Development - bestræbelser på nogle få projekter.
Og netop her kommer ”The Machine” ind, som vores absolut vigtigste udviklingsprojekt.
En enorm opgave
Der skal ikke herske tvivl om, at det er en enorm opgave at udvikle en ny computerarkitektur.
Arbejdet er en konstant balance mellem det evolutionære arbejde (D’et i ”Development”) og udviklingsarbejdet (R’et i ”Research”).
Netop det monumentale udviklingsarbejde har gjort, at vi ikke kan gøre det alene.
Til det formål har vi GenZ-konsortiet, som består af stort set alle aktører i it-verdenen, der er gået sammen om at udvikle GenZ-standarden.
Denne er nu blevet defineret og vedtaget. GenZ Core Specification 1.0 har således været defineret siden januar 2019, og dermed kan alle producenter nu fremstille komponenter til GenZ-økosystemet.
Hvis der i øvrigt er nogen der undrer sig over, hvorfor det hedder GenZ, så kommer forklaringen her:
Vi skal tilbage til det gamle koordinatsystem, som vi alle kender fra folkeskolen. Koordinatsystemet er to-dimensionelt og har to akser: X-aksen og Y-aksen.
Ved at tilføje en tredje akse (Z-aksen), så har vi lige pludselig gjort koordinatsystemet tre-dimensionelt. Og hvis man så forestiller sig, at det to-dimensionelle koordinatsystem er enden på Moore’s lov, så er det nødvendigt at tilføje en tredje akse.
Memory-centrisk
Basalt set, så handler det om en ny arkitektur, der ikke er processor-centrisk, men derimod memory-centrisk. Og så handler det om at overføre signaler via lys i stedet for via elektricitet.
Teknologierne i ”The Machine” er Photonics og Memristor.
Photonics er transmission af data via lys. Memristor er en sammentrækning af ordene memory og resistor. Memristor er det vi i HPE kalder Persistent Memory, som er memory, der ikke mister data, selvom der mistes strøm.
Selvom ”The Machine” virker kompliceret, så virker den rent faktisk.
I oktober 2016 gik den første “The Machine” online, og på nuværende tidspunkt er vi så langt fremme i udviklingsprocessen, at vi har bundet hele 40 noder sammen, der hver især har 4TB Persistent Memory og hvor alle noder har adgang til at kunne anvende al memory i hele pool’en af memory, nemlig de 160TB. Og det vel at mærke som den eneste computer-platform i verden.
Den rigtige use case
Som det er med alle it-investeringer, så handler det selvfølgelig om at finde den rigtige ”use case” for valget af platform.
Udviklingen af ”The Machine” har to grundlæggende mål:
- Alle skal være mere effektive og kunne gøre mere med mindre
- Alle skal kunne få mere ud af deres data og vi nærmer os enden med de nuværende teknologier
Samtidig, så handler ethvert udviklingsprojekt om at kunne udvikle noget der også kan produceres forholdsvis nemt og kost-effektivt, således at det kan udbredes til så mange som muligt. Og her kommer netop ”The Machine” til sin ret.
Næsten alle har hørt om kvantemekaniske computere. Der er ingen tvivl om, at hvis kvantemekaniske computere var nemme at fremstille og (forholdsvis) billige at købe, så havde de også sin berettigelse. Det er de imidlertid ikke. Endnu.
Med udviklingen af ”The Machine”, så er vi på rette spor.
Og hvis man kombinerer det med opkøbene af supercomputerfirmaerne Cray og SGI, så gør vi de rigtige ting, af de rigtige grunde.
Den nære fremtid kommer nemlig til at være domineret af de markedsaktører der kan håndtere og analysere meget store datasæt til en overkommelig pris. Sagt med andre ord, så kommer disciplinen supercomputing til at dominere verden - både når vi snakker ”on-prem” baserede it-systemter og cloud-baserede it-systemer.
Hvis vi kigger på implementerede teknologier, så kan man allerede i dag købe persistent memory (hukommelseskredsløb, der ikke mister data ved strømsvigt) til vores industristandard servere, vores Superdome Flex-servere er bygget på ”memory driven computing” principper og i vores enclosures til Synergy-platformen er der allerede gjort klar til kommunikation via lys (via et såkaldt Photonics-slot).
Det som måske interesserer mange er, hvornår kan man rent faktisk købe en ”The Machine”? Hvis man kigger på alle de ressourcestærke producenter der er involveret i GenZ-samarbejdet og kombinerer det med udviklingshastigheden, så er mit personlige gæt omkring år 2022.
Men det er mit eget gæt og ikke noget hverken jeg eller min arbejdsgiver kan garantere. Men det kommer i hvert fald til at ske indenfor en overskuelig fremtid.
Etik og implikationer
Når vi så har defineret hvad det er, så er det på sin plads at diskutere, hvilken etik og implikationer der følger med teknologien.
Årsagen er, at ”The Machine” virkelig er disruptiv.
En sand ”game changer”, der vil skabe historie. Når det så er sagt, så tror jeg, at den brede befolkning generelt – og mig selv inklusiv – undervurderer implikationerne og mulighederne af ”The Machine”.
For indbygget i alle store opfindelser, hviler der også et stort ansvar, den såkaldte teknoetik.
Vi kan nemlig ikke forudse, hvordan menneskeheden, verden og dermed vores kunder, vil anvende denne teknologi. Vi har kun kradset i overfladen og kender ikke fremtiden. Det er også det man kalder en teknologisk singularitet.
Personligt kan jeg ikke forestille mig, hvilke opgaver, jeg ville kunne løse, og hvilke muligheder jeg havde, hvis min nuværende smartphone var 100 gange kraftigere og kun brugte ¼ af den nuværende strøm. Og det er vel at mærke i første generation.
”The Machine” vil med stor sandsynlighed give os en bedre forståelse af verden. Når det så er sagt, så skal man betragte anvendelsen af it som en generel refleksion af både dit lokalsamfund og af verden.
Noget er positivt, noget er negativt og noget er neutralt. Det afhænger alt sammen om øjnene, der ser.
Men uanset hvad, så får fremtidens computere gennemgribende betydning.
En af de afgørende forskelle på mennesker og dyr er, at vi mennesker har en evne til at forestille os ting. Forestillingsevnen er helt afgørende for at kunne opfinde ting.
Men med ”The Machine” er jeg ikke sikker på, at vi kan forestille os, hvilke problemstillinger den kan være med til at løse.
Albert Einstein sagde engang: “Vi kan ikke løse vores problemer ved at tænke på samme måde, som da vi skabte dem”.
Dette er i sandhed sandt om “The Machine”.
Fremtiden er ukendt, men næste skridt i computerens udvikling bliver baseret på Persistent Memory og lys. Det kan være, at Silicon Valley skal omdøbes til Light Valley. Uanset hvad, så er det bare om at spænde sig fast og nyde turen.
Velkommen til den nye verden.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.