Nanoteknologi i tera-alderen

Denne artikel stammer fra det trykte Computerworlds arkiv. Artiklen blev publiceret den Computerworld d. 25. juni 2004.


nanoteknologi: Vi nærmer os med raske skridt en tidsalder, hvor ydelsen på computersystemer skal måles i teraflops, og hvor lagerenheder kan rumme petabytes frem for gigabytes. Nanoteknologi baner vejen.

Det er svært at komme uden om, at computer bliver hurtigere og får mere lagerplads. Om et par årtier skal ydelsen for de hurtigste computere måles i teraflops, og lagerenheder vil kunne rumme i nærheden af en petabyte data. Præfikset tera betyder billioner, altså million millioner, mens peta står for billiarder, lig med million milliarder. Talstørrelser, man har svært ved at forholde sig til, fordi de er så meget større end dem, man benytter i hverdagen.
En teraflops betyder således en ydelse på en billion beregninger i sekundet. Allerede i dag findes der supercomputere, der byder på regnekraft, der skal måles i teraflops. Verdens hurtigste af slagsen, den japanske Earth Simulator, kan levere næsten 36 teraflops.
En enorm mængde regnekraft kan også opnås ved at lade mange mindre computersystemer arbejde sammen. I SETI@Home-projektet stiller tusindvis af fortrinsvis private brugere regnekraft til rådighed til at granske signaler fra rummet i håb om at finde signaler, der tyder på intelligent liv andre steder i universet. Computerne tilknyttet SETI@Home regner omtrent dobbelt så hurtigt som Earth Simulator.
De største supercomputere rummer flere tusinde processorer, men den teknologiske udvikling betyder, at almindelige pc'er med regnekraft i størrelsesordenen teraflops ikke er helt hen i vejret, hvis vi kigger et par årtier frem i tiden. Hvis man fremskriver de seneste årtiers udvikling inden for processorer, kommer man frem til, at en almindelig pc-processor vil kunne foretage en billion beregninger i sekundet omkring år 2030.

Behovet er der
I computerens historie har det altid været sådan, at applikationernes behov for regnekraft er blevet afpasset computernes ydelse, og der er ingen grund til at tro, at det ikke vil fortsætte sådan. Med andre ord: Når regnekraften er til rådighed, skal den nok blive udnyttet.
Selvfølgelig vil en massiv forøgelse af regnekraften i en almindelig pc ikke være til ret stor nytte, hvis man udelukkende benytter pc'en til at skrive simple dokumenter, men blot det at kunne få en computer til at forstå talesprog koster mange beregninger, og behandling af video i høj opløsning er også noget, der trækker tænder ud på computere - for slet ikke at snakke om de applikationer, vi slet ikke kan forestille os endnu.
Som det fremgår andetsteds i bladet, kræver fremvisning af grafik i en virkelighedstro kvalitet også store mængder af beregninger. Det er en kolossal udfordring at efterligne naturen med dens massive informationsstrømme, og det er sin sag at få computeren til at simulere de fysiske love i en grad, så fantasi bliver til virkelighed - eller noget der ligner til forveksling.

Videnskabelig forskning
Videnskabelige beregninger er en historie for sig. Her er nok det største potentiale i fremtidens computere: De vil tillade os at blive klogere på den verden, der omgiver os. Naturvidenskab er ofte et spørgsmål om at analysere store mængder data for at finde en sammenhæng eller en lovmæssighed, og her kan hurtige computere hjælpe.
De kan ikke mindst bruges på sundhedsområdet. Virkningen af ny medicin kan simuleres i computere, og det betyder en langt mere effektiv udvikling af nye lægemidler. De mange data fra kortlægningen af menneskets arvemasse kan bruges til at finde og udbedre genetiske defekter, og når computere kan beregne proteiners foldning, kan det betyde ny medicin til afhjælpning af alverdens dårligdomme - bare for at nævne nogle eksempler.
Om tre år vil partikelacceleratoren Large Hadron Collider (LHC) med en omkreds på 27 kilometer blive taget i brug på CERN, det europæiske center for partikelfysik. Her vil atomkerner blive accelereret til hastigheder tæt på lysets for til sidst at blive smadret ind i hinanden, og resultatet af sammenstødene giver mulighed for at undersøge universets mindste bestanddele og de helt grundlæggende naturkræfter.
Hver eneste sekund vil acceleratoren producere et par petabyte rå data, og selv efter en grundig sortering af informationerne vil behovet for lagerkapacitet være i omegnen af ti petabyte om året. Når de mange data skal behandles, kræves en regnekraft svarende til den, som 100.000 af markedets hurtigste standard-pc'er kan levere. Store videnskabelige projekter som LHC vil ikke mindst nyde godt af grid computing, som vi også har en artikel om i dette særtillæg.

Moores lov
Når man snakker om fremtidens computerteknologi, kommer man ikke uden om Moores lov. En populær version af denne lov siger, at antallet af transistorer i en processor fordobles hver 18. måned. En transistor er en lille kontakt, der kan sættes til at åbne eller lukke for strømmen, og transistoren er den helt grundlæggende komponent i en processor.
I de seneste tre årtier har Moores lov holdt nogenlunde. Den første processor fra 1971 var Intels 4004 med 2.300 transistorer og en frekvens på 400.000 hertz. Den nyeste Pentium 4-processor har en frekvens på 3,4 gigahertz, hvilket betyder, at transistorerne i processoren tænder og slukker op til 3.400.000.000 gange i sekundet. Til næste år kommer den første processor med mere end en milliard transistorer på markedet. En server-processor med kodenavnet Montecito fra Intel vil rumme 1,7 milliarder transistorer på samme chip.
Problemet med en eksponentiel lov som Moores er, at den ikke kan holde evigt, og det store spørgsmål er, hvor længe den kan holde endnu.
Det er værd at bemærke, at mikrochip-teknologien hidtil har været baseret på halvledermaterialet silicium, og udviklingen har først og fremmest bestået i at gøre dimensionerne på de silicium-baserede transistorer og metalbanerne mellem dem mindre. Mindre afstande betyder nemlig hurtigere processorer. Imidlertid er der en fysisk grænse for, hvor små dimensioner, der kan benyttes. I dag har visse dele af transistorerne en tykkelse på ganske få lag atomer, og når man først er nede i atomstørrelser, kan det ikke blive meget mindre.

Silicium det næste årti
I øjeblikket benyttes 90 nanometer teknologi i forbindelse med produktion af processorer. En nanometer er en milliontedel millimeter, og med den nye teknologi er de karakteristiske afstande i en processor altså nede på 90 nanometer. Det svarer nogenlunde til størrelsen på et virus eller en tusindedel af tværsnittet på et menneskehår. Chipproducenterne er trådt ind i nanoteknologiens domæne, hvor man benytter størrelser mellem 0,1 og 100 nanometer.
I det næste årti vil siliciumteknologien fortsætte med at udvikle sig. Hvert andet år vil en ny fremstillingsteknologi se dagens lys, og transistorer vil blive pakket stadig tættere sammen. Om et par år tages 65 nanometer teknologi i brug, og derefter hedder det 45 nanometer og 32 nanometer. I dag bruges synligt lys i den litografiske proces, men fremover vil producenterne være tvunget til at skifte til ultraviolet lys med mindre bølgelængde, og derefter skal man måske bruge elektronstråler til at skære i siliciumskiverne.
Om otte-ti år skulle de første processorer fremstillet med 22 nanometer teknologi se dagens lys, og så vil frekvensen være nået op i nærheden af 50 gigahertz. Frekvensen er ikke det eneste saliggørende for ydelsen fra en processor, og regnekraften bliver forøget på andre måder end ved blot at hæve frekvensen. Tendensen går først og fremmest mod at øge ydelsen ved at samle flere processorkerner på samme mikrochip.

Ægte nanoteknologi
Når størrelserne i en siliciumbaseret transistor nu måles i nanometer, kan chipproducenternes landvindinger kaldes nanoteknologi, selv om der i bund og grund stadig er tale om gammeldags litografiske metoder, som ikke vil kunne bruges, når dimensionerne for alvor nærmer sig atomare størrelser.
Nanoteknologi handler ikke bare om små størrelser, men også om at kunne arrangere enkelte atomer efter ønske, udnytte molekylers evne til selvorganisering og på den måde frembringe nyskabelser, der vil revolutionere verden. Rigtige nanomaskiner skal bygges fra bunden i reagensglas, hvor grundlæggende fysiske og kemiske kræfter forbinder atomer og molekyler på den måde, vi ønsker. Strukturer i nanostørrelse skal så at sige bygge sig selv.
Flytte på atomer
Det giver god mening at bruge kemi til at opbygge nanostrukturer, for de redskaber, vi normalt benytter til fremstilling af maskiner, er alt for kluntede. Man kan ikke manipulere med objekter i nanostørrelse, hvis instrumentets dimensioner skal måles i mikrometer - det er som at lege med LEGO-klodser med boksehandsker på.
I 1980'erne blev der dog opfundet apparater, der kan bruges til at observere og rykke rundt på enkelte atomer, nemlig scanning tunneling og atomic force mikroskoper - eller rettere nanoskoper. Noget tyder på, at man også kan bruge såkaldte femtosekundlasere til at bygge maskiner i nanostørrelse. En femtosekundlaser er en særlig laser, der kan levere lysimpulser af en varighed ned til 10 femtosekunder, lig med en hundrededel af en milliontedel af en milliontedel sekund. Disse ultrakorte impulser kan skære i materialer med en præcision på omkring 20 nanometer - endda i tre dimensioner.
I sin yderste konsekvens vil nanoteknologien have en gennemgribende indflydelse på vores hverdag. Når vi forstår, hvordan vi kan manipulere med enkelte atomer og molekyler og få nanomaskinerne til at udføre de opgaver, vi beder dem om, vil kun fantasien sætte grænser.
Nanoteknologi vil gøre sit indtog i fysik, kemi, molekylærbiologi og medicin. Vi kan forvente nye materialer, der er stærkere end stål uden at veje mere end plastic, billig, forureningsfri energi og store landvindinger på sundhedsområdet. Man kan få nanorobotter til at afsætte medicin præcis, hvor det skal bruges i kroppen, så man for eksempel kan dræbe kræftceller uden at ødelægge de raske celler.

Nanotransistorer
På it-området vil nanoteknologien betyde hurtigere computere. Der er især store forventninger til såkaldte nanorør, der er rørformede kulstofforbindelser med en diameter på ganske få nanometer. Nanorør er meget effektive halvledere, og for nylig lykkedes det en gruppe forskere at fremstille en ekstrem lille transistor, der er baseret på et nanorør placeret mellem to guld-elektroder.
Forskerne regner med, at frekvensen på nanotransistorerne kan bringes op i terahertz-området inden for en overskuelig årrække, og processorer baseret på transistorer af nanorør forbundet med nanotråde vil sandsynligvis komme til at supplere eller helt afløse de eksisterende mikrochips. Det er også lykkedes af få nanorør til at lyse, så lynhurtige optiske chips er bestemt også en mulighed.
Processorer vil ikke blot blive hurtigere, de bliver også langt mindre end i dag. Det betyder, at vi vil se computere i helt nye sammenhænge. Når en computer med mulighed for trådløs kommunikation med omgivelserne kan gøres ganske små, vil man for eksempel kunne fremstille mikroskopiske sensorer, der bestandigt overvåger miljøet og melder tilbage, hvis der er optræk til forurening, eller som kan analysere biologiske prøver og stille en diagnose på stedet.

Datalagring i nanostørrelse
Også når det gælder datalagring vil nanoteknologi revolutionere. IBM har udviklet en teknologi kaldet Millipede, hvor tusindvis af mikroskopiske silicium-nåle prikker fordybninger i nanostørrelse i en tynd plastic-film. På denne moderne version af det gode gamle hulkort har forskerne opnået en datatæthed på en terabit pr. kvadrattomme, og det er mere end det tidobbelte af, hvad man kan få plads til på en almindelig, magnetisk harddisk-plade.
Andre firmaer har planer om at fremstille hukommelseskredse med en teknologi kaldet nano-imprint litografi. Her starter forskerne med at støbe ultratynde metaltråde, såkaldte nanowires, der er mindre end 50 nanometer i tykkelse. Et lag af særlige molekyler, der har evnen til at kunne skifte mellem to forskellige tilstande, lægges over disse nanowires, og endnu et sæt nanowires anbringes på dette lag molekyler - bare på den anden led. De molekyler, der fanges mellem de punkter, hvor to nanowires krydser, fungerer som en hukommelsescelle. Nano-imprint litografi lover kompakt og billig datalagring med kapaciteter på adskillige gigabit pr. kvadratcentimeter.
Man skal nu ikke afskrive datalagring baseret på magnetisme. Harddisk-producenten Seagate har demonstreret en teknologi ved navn HAMR, der står for Heat Assisted Magnetic Recording, som skal benyttes i fremtidige harddiske fra firmaet. Seagate vil bruge en blanding af jern og platin som lagringsmateriale, for et sådant materiale holder rigtig godt på magnetismen, så data kan pakkes meget tæt. Til gengæld opstår der problemer med at få harddiskens læse/skrive-hoved til at vende metallets magnetiske retning, når man har behov for at overskrive data. Hovedet kan simpelthen ikke levere det krævede magnetiske felt.
Med HAMR skal energien fra en præcis laserstråle bruges til at opvarme metallet, når der skal skrives til harddisk-skiverne. Når det magnetiske materiale varmes op, bliver det nemlig lettere at få det til at ændre retning, og så kan læse/skrive-hovedet godt klare opgaven. Da det magnetiske materiale lynhurtig køles af igen, når laserstrålen slukkes, vil metallet holde på magnetismen, til skrivehovedet og laserstrålen kommer forbi igen. Seagate regner med, at man kan komme op i nærheden af 50 terabit pr. kvadrattomme med HAMR-teknologien, så kapaciteten på en harddisk kan runde de 100 terabyte.
Fremtiden byder altså på computere med terahertz-processorer og terabyte-harddiske, men også på en række helt nye former for lynhurtige, mikroskopiske computere, der vil indgå i dagligdagen på måder, vi endnu ikke kan forestille os.

Boks:
Exabytes af information
Forskere fra Berkeley University i Californien, USA, har sat sig for at undersøge hvor meget information, der egentlig bliver produceret og lagret i det moderne samfund. Her måles der i exabytes, 1.000.000.000.000.000.000 bytes, altså milliarder gigabytes.
Foreløbig har forskergruppen analyseret informationsmængderne for to år, nemlig 1999 og 2002. I 2002 blev 18 exabytes overført via de fire elektroniske informationskanaler telefon, radio, tv og internet. De 98 procent af denne information bestod af telefonsamtaler, mens internettet stod for 533.000 terabytes. 440.000 terabytes blev overført via e-mail, mens diverse beskedtjenester stod for 274 terabytes.
Den del af internettet, der hedder World Wide Web, rummede cirka 167 terabytes data på overfladen, men dykker man ned i de databaser, der ligger bag mange websites, stiger tallet til 91.850 terabytes. Tv-programmer svarende til 70.000 terabytes data blev sendt ud - genudsendelser blev frasorteret.
Information kan lagres på papir, på film eller på magnetiske eller optiske lagerenheder. I 2002 blev fem exabytes ny information lagret, og 92 procent af denne data blev lagret i magnetisk form - fortrinsvis på harddiske. De fem exabytes svarer til informationsmængden i det samlede antal ord, der er blevet sagt af mennesker igennem historien.
Med andre ord blev der lagret 800 megabyte ny information for hver person på jorden. Her er det interessant, at mængden af ny, lagret information er fordoblet fra 1999 til 2002, svarende til en årlig stigning i informationsmængden på 30 procent.
Man kan læse mere om projektet på forskergruppens website på www.sims.berkeley.edu/research/
projects/how-much-info-2003.
Det er spændende læsning.

Billedtekst:
Det bliver ikke muligt at bygge nanomaskiner med den teknologi vi kender i dag. I stedet skal nanomaskiner bygge sig selv i reagensglas. Kunsten bliver at styre de fysiske og kemiske processer, så atomer og molekyler forbindes præcis som vi ønsker. Strukturer i nanostørrelse skal så at sige bygge sig selv.

Billedtekst:
Efter gigabytes kommer terabytes, petabytes og exabytes. Intels teknologichef Pat Gelsinger er godt forberedt på fremtidens talstørrelser i computerindustrien.

Billedtekst:
Her er det japanske skrifttegn for ordet atom blevet dannet af jernatomer på en kobberoverflade ved hjælp af et såkaldt scanning tunneling mikroskop.

Billedtekst:
Earth Simulator er verdens hidtil kraftigste supercomputer. Den består af 640 servere, hver med otte processorer og 16 gigabyte hukommelse, der samlet kan levere en regnekraft på 36 teraflops.

Billedtekst:
Der er store forventninger til kulstofbaserede nanorør med en diameter på få nanometer.
De kan fungere som transistorer i fremtidens mikrochips.

Billedtekst:
Sådan kan det se ud, når 35 Xenon-atomer er lagt til rette på en nikkel-overflade. IBM's demonstration fra 1990 var et gennembrud i nanoteknologi-forskningen, idet der blev manipuleret med enkelte atomer.

Billedtekst:
Afløserne til harddisk-teknologien kan blive Millipede, hvor fordybninger i nanostørrelse repræsenterer de enkelte bits.




Brancheguiden
Brancheguide logo
Opdateres dagligt:
Den største og
mest komplette
oversigt
over danske
it-virksomheder
Hvad kan de? Hvor store er de? Hvor bor de?
Alfapeople Nordic A/S
Rådgivning, implementering, udvikling og support af software og it-løsninger indenfor CRM og ERP.

Nøgletal og mere info om virksomheden
Skal din virksomhed med i Guiden? Klik her

Kommende events
Cyber Security Summit 2024

Hør blandt andet hvordan nogle af Danmarks bedste CISO´er griber deres vigtige opgaver an, hvad kvanteteknologi og AI betyder for sikkerhedsområdet og se hvad det er, som de bedste it-sikkerhedsleverandører arbejder med pt.

29. august 2024 | Læs mere


Industry 4.0 – sådan udnytter du AI og digitalisering til optimering af din produktion.

På denne konference fokuserer på en digitaliseret optimering af processer i produktions- og procesorienterede virksomheder. Herved bliver du f.eks. i stand til at kombinere maskiner med sales forecasting og derved planlægge anvendelsen af produktionsapparat og medarbejderallokering effektivt – samt begrænse materialespild og nedetid ved at optimere produktionsplanlægning og omstilling af produktionsmateriel.

04. september 2024 | Læs mere


Roundtable for sikkerhedsansvarlige: Hvordan opnår man en robust sikkerhedsposition?

For mange virksomheder har Zero Trust og dets principper transformeret traditionelle tilgange til netværkssikkerhed, hvilket har gjort det muligt for organisationer at opnå hidtil usete niveauer af detaljeret kontrol over deres brugere, enheder og netværk - men hvordan implementerer man bedst Zero Trust-arkitekturer i et enterprise set up? Og hvordan muliggør Zero Trust-arkitekturen, at organisationer opnår produktivitetsfordele med AI-værktøjer samtidig med, at de forbliver sikre i lyset af fremvoksende trusler?

18. september 2024 | Læs mere