Verdens hurtigste enkeltkort
Det går stærkt på markedet for grafikkort, hvor først Nvidia og sidenhen AMD hver især netop har frigivet nye serier.
Hos Nvidia hedder serien GTX 200, bestående af modellerne GTX 260 og 280, mens AMD under ATI-fanerne er klar med HD 4800-serien bestående af 4850 og 4870.
Nvidia har valgt en drastisk anderledes fremgangsmåde end konkurrenten, for mens GTX 200-serien først og fremmest skal flytte endnu flere pixels hurtigere end tidligere i krævende DirectX 10-spil, er HD 4800-serien forsøgt fremstillet, så der er hårfin balance imellem pris og ydelse.
Havde man forventet en GeForce 9900-serie efter den mildest talt kedelige 9800-lancering, blev man skuffet. Nvidia har nemlig præsenteret ændrede modelnavne for at understrege de mange nye elementer i GTX 200-serien.
Velkommen til GTX 280
Topmodellen hedder GeForce GTX 280, her testet i en referenceudgave fra Nvidia, og den er rent arkitektonisk en videreudvikling af forrige generations grafikkort.
Det er med andre ord kompatibelt med DirectX 10, ydelsen skulle dog i visse situationer være dobbelt så høj som den, GeForce 8800 GTX kunne præstere for snart halvandet år siden.
Hvor GeForce 9800 GX2 var udstyret med 512 megabyte ram for hver af kortets to GPU’er (Graphics Processing Unit), er GTX 280 født med intet mindre end én gigabyte GDDR3-hukommelse på 1.107 megahertz.
Det skulle sikre en jævn ydelse, selv når skærmopløsning og detaljeniveau bliver hævet til et – for de fleste almindelige pc-spillere – næsten absurd niveau; vi taler her eksempelvis 2.560 x 1.600 pixels på nudagens 30 tommer pc-monitorer.
Det kan dog undre, at Nvidia ikke har valgt at opgradere til de hurtigere GDDR4- eller sågar GDDR5-hukommelsesstandarder, men hastigheden lader i vores test ikke til at fejle noget af den grund.
Stort og dyrt
Køleren minder mest af alt om den gigantiske løsning, vi så monteret på 9800 GX2.
Blæseren på GTX 280 var da også tilpas støjsvag i vores test, men kortet fylder godt i pc-kabinettet, hvor du traditionen tro må ofre hele to kortpladser.
Det bliver samtidig yderst varmt – i vores spiltest omkring 80 grader – så det anbefales at holde fingrene på sikker afstand.
Samtidig kan du godt glemme alt om at minimere CO2-udslip og spille med god samvittighed, for kortet sluger intet mindre end 236 watt – den såkaldte TDP – når der er fuld damp på 3D-kedlerne.
Nvidia er klar med forskellige strømbesparende muligheder, som du kan læse om på pcworld.dk’s Hardware Watch.
De kræver imidlertid et bundkort med Nvidias egne nForce-baserede chipsæt, og det må vi erkende, at de færreste i virkeligheden benytter. Til alt held kan kortet dog fungere med så lidt som 35 watt, når du eksempelvis ser en film på pc’en i Blu-ray-format.
De høje strømkrav betyder, at du både skal tilslutte et 8-bens og et 6-bens PCI Express-strømudtag – ellers nægter GTX 280 prompte at starte op. Flere ældre strømforsyninger er derfor ubrugelige, så du skal være klar over denne ekstraudgift til en ny model, hvis din strømforsyning mangler de nødvendige udtag.
Nvidia anbefaler en strømforsyning på 550 watt til et enkelt kort, men vil du muntre dig med to eller tre flagskibe i samme maskine, det såkaldte Nvidia SLI eller 3-way SLI, skal du nok tage en mundfuld frisk luft, inden du kigger på elregningen.
Vil konkurrere med pc-processoren
Nvidia har på det seneste postuleret mere end et par gange, at processorfabrikanterne Intel og AMD måske engang skal passe på en ny spiller.
Selvom det nok ligger et stykke ude i fremtiden, er sammenligningen på sin vis gyldig nok. En velvoksen Intel Core 2 Extreme QX9650-processor, som vi har benyttet her i testen, har eksempelvis 820 millioner transistorer og fire logiske procesenheder, eller kerner.
Til sammenligning har GTX 280 hele 1,4 milliarder transistorer og 240 ”eksekveringslinjer”. I forhold til en CPU er det dog anderledes begrænset, hvad GPU’en kan udrette, ligesom den relativt lille mængde cache opstiller klare grænser for, hvad der er muligt.
Hvorom alting er, er GPU’en blevet en mere kompliceret procesenhed end en traditionel CPU. Den er dog fortsat kun bedre end CPU’en til visse typer opgaver, herunder dem, der er skrevet i Nvidias C-lignende programmeringssprog, CUDA.
Netop CUDA er hjertet i Nvidias nye satsning, som gør GeForce 8-grafikkort og nyere, herunder GTX 280, i stand til at håndtere bestemte arbejdsopgaver, man tidligere udelukkende ville have benyttet CPU’en til.
Fold proteiner og komprimer video
Indtil videre er det dog begrænset, hvad slutbrugere kan udrette med CUDA. PC World fik adgang til en særlig betaversion af Folding@Home, som gør det muligt at bidrage med matematiske beregninger til forskning i proteiner. Det fungerede fint i praksis og vil sikkert opnå en relativt stor udbredelse, men der skal mere kontante løsninger på bordet, hvis CUDA skal spås en betydningsfuld fremtid.
Mere interessant var et særligt program til videokomprimering, det såkaldte BadaBOOM Media Converter, der lod os konvertere en MPEG2-fil i opløsningen 1.280 x 720 pixels til såkaldt H.264-video; valget faldet på iPod Touch-kompatibelt MPG4-format, og det var tydeligt, at CUDA satte fart på komprimeringsarbejdet. Ventetiden blev cirka minimeret til en tredjedel af den tid, det tog for processoren at gennemføre arbejdet alene med en anden lignende applikation – uden CUDA.
Overordnet set er udvalget af mere eller mindre færdige CUDA-applikationer lige nu ret skrabet, men det har været med til at demonstrere de muligheder, der gemmer sig i programmeringssproget. Tilbage bliver blot at se, hvornår slutbrugere får adgang til de færdige applikationer, som kan lette hverdagens pc-opgaver.
Testresultater og konklusion
Vi har valgt at sammenligne GTX 280 med ATI’s HD 3870 X2 i henholdsvis to spil og et benchmarkprogram. Grundet en sen levering af ATI-kort har vi desværre íkke kunne sammenligne med ATI 4870 og 4850. En egenlig sammenligning kommer senere.
Spillet Crysis formår til stadighed at presse selv kraftige grafikkort, men som vores test viser, er der omsider en ganske udmærket spiloplevelse at hente i enkeltkortet GTX 280.
Vi har derudover inkluderet det syntetiske testprogram 3DMark Vantage (læs mere her) og Assassin’s Creed, hvoraf sidstnævnte traditionelt favoriserer ATI-grafikkort.
Testen blev foretaget på en Intel-baseret platform med Intels ekstreme QX9650-processor på tre gigahertz og et Intel P45-baseret bundkort fra Asus, P5Q Deluxe.
Hukommelsen var i alt fire gigabyte DDR2-1200 HyperX fra Kingston, som i testen dog kørte med en hastighed på 800 megahertz. Harddisken på i alt 500 gigabyte var fra Western Digital, og styresystemet var Windows Vista 64-bit inklusive Service Pack 1 og samtlige tilgængelige opdateringer. De benyttede grafikdrivere var ForceWare 171.41 til GTX 280 samt Catalyst 8.6 til HD 3870 X2.
Hvor det i de benyttede applikationer var muligt, testede vi i en opløsning på 1.920x1.200 pixels på en Samsung SyncMaster 2493HM pc-monitor.
Crysis: Spilbart for alvor
Vi afviklede den indbyggede GPU-test i FPS-spillet (First Person Shooter) Crysis fra Crytek. Som grafen til højre illustrerer, trækker GTX 280 tydeligt fra HD 3870 X2 fra ATI med et antal billeder per sekund, der er cirka 23 procent højere. Det skete med detaljegraden indstillet til højeste niveau og en skærmopløsning på 1.680x1.050 pixels.
Assassin’s Creed
Forskellen på de to grafikkort i det populære Assassin’s Creed er minimal, og det skyldes, at spillets grafiske motor har en udpræget tendens til at favorisere ATI’s grafikkort. Vi gennemførte en sekvens på 60 sekunder fra spillets første bane, og antal billeder per sekund blev målt med værktøjet FRAPS. Opløsningen var sat til 1.920x1.200, og vi udførte testen med maksimal detaljegrad og kantudglatning (2x anti-aliasing) aktiveret.
3DMark Vantage
Vi har også inkluderet benchmarkprogrammet 3DMark Vantage, og her blev testen afviklet med de mest ekstreme indstillingsmuligheder og en opløsning på 1.920x1.200. Grafen til højre viser GPU-delscoren, som grafikkortene kunne fremtvinge, og det er tydeligt, at GTX 280 i denne test er bemærkelsesværdigt hurtigere end HD 3870 X2 – hele 4.735 såkaldte 3DMarks sammenlignet med 2.964 hos ATI’s testdeltager.
Konklusion
Man sidder tilbage med en fornemmelse af deja vu: Nvidia har igen skabt verdens hidtil hurtigste enkeltkort, som de mest velhavende entusiaster nok skal tage til sig. Den største konkurrent til GTX 280 kan dog i virkeligheden vise sig også at komme fra Nvidia; selvom vi desværre ikke havde mulighed for at inkludere 9800 GX2 i vores test, er flere medier enige om, at det i praksis leverer en næsten identisk ydeevne – dog til en lidt lavere pris end de mindst 3.500 kroner, man for øjeblikket skal lange over disken for Nvidias nye flagskib. Se de aktuelle priser på GTX 280-grafikkort på pcworld.dk’s Pristjek.
CUDA-teknologien har vist lovende takter, men vi venter med at afsige nogen dom over den, indtil vi har set flere (færdige) programmer, som udnytter arkitekturen i Nvidias moderne GPU’er. På nuværende tidspunkt er det svært at vurdere, om CUDA ender med at slå igennem for alvor blandt almindelige brugere.
Samlet set er GTX 280 et fint køb til en ret begrænset målgruppe, men det skæmmer en smule, at man endnu ikke har migreret til en fabrikationsproces på 55 nanometer, ligesom det maksimale strømforbrug er en kende for højt for vores smag. Til en mere menneskelig pris på godt 2.500 kroner kan du eventuelt overveje et GTX 260, som har knap så balstyriske strømkrav. Husk dog at holde øje med konkurrencen fra ATI’s HD 4800-serie, som vi snart er klar med en anmeldelse af.