Ifølge div kilder har de nyeste grafikkort en rambåndbredde på ca. 8 gigabyte i sekundet....Og dette skulle være udnyttet fuldt ud..men det forstår jeg ikke For..:(and correct me if i\'m wrong..)
F.eks GeForce2Ultra kan køre ca 60 fps i 1600x1200 i 32 bit farver..
Hvis det regnes om til datamængde i sekundet bliver det (igen som JEG har forstået det, og det er muligvis forkert)..=ca 500 mb i sekundet...hvordan pokker kommer de frem til de ca 10 til 15 gange så meget data i sekundet....
mig bekendt så er det heller ikke sådan de udregner det. De bruger nogle helt andre udregninger som stammer fra hvor hurtig bus bredde du kører på, hvor høj gange faktor du kører med (ex. AGP), den ram der sidder på grafikkortet hvad hastighed den udnytter m.m. Det kommer ikke an på Opløsing x fps x (4)
\"Et skærmbillede i 1024 X 768 i 16 bit farver er en bitmap på 1,5 MB. Det beregnes simpelthen som 1024 X 768 X 2 bytes. Hver gang, der skal skiftes billede, skal der flyttes 1,5 MB data\"
Fint: Du har regnet båndbredden der behøves til RAMDAC\'en. Det er også OK. Men grafikkortet regner jo reelt skærmbilledet ud når vi taler om 3D. Dvs. det læser data der lægges ind af CPU\'en og regner overflader/lys/skygger/antialiasing etc. ud. Det er dette de vilde memorybåndbredder bliver brugt til. Jo højere opløsning / detaljeringsgrad jo flere udregninger = flyttede data = memory båndbredde. Det er derfor de store forskelle på kort med hurtig ram først skiller sig væsentligt ud ved de høje opløsninger.
Båndbredden kan opnåes ved DVI interface, dette har en langt større båndbredde idet standarden er digital, og ikke analog som i dag. Den analoge standard har en max båndbredde til 1600x1200x16. Der er tale om en fiktiv båndbredde som de kloge hoveder regner med at man kan opnå ved at skifte til digitale signaler hele vejen til skærmen.
Vender lige tilbage når jeg finder artiklen igen. /diggs
DVI overfører (i nogle konfigurationer - DVI stikket kan også blot overføre alm RGB analog video) blot informationen digitalt. Dvs. ligesom FireWire til/fra et kamera - eller alm. netværk for den sags skyld. Hvis det er til en alm CRT monitor bliver det så konverteret i skærmen i stedet for på grafikkortet. Båndbreddeforbruget bliver sådan set det samme! Den med den \"maksimale båndbredde\" er noget bavl. Digital delen af DVI er sikkert specificeret op til et eller andet (højere end 1600x1200x16bit farver vil jeg tro!) - men den analoge overførsel afhænger af RAMDAC, drivere og kabel...
De signaler der kommer fra nutiden grafikkort er påhæftet en masse overhead, der indeholder information om hvilken kodning der benyttet. Ved at køre ren digital \"signalering\" mellem to standarder vi disse overhead forsvinde og frigøre en masse båndbredde. Man vil kunne presse flere data igennem en bus med samme båndbredde hvis signalet ikke skal indeholde information om konvertering/\"hastighed\"/ osv.
!! men den analoge overførsel afhænger af RAMDAC, drivere og kabel... SELVFØLGELIG
Hvis nogle af jeg abonnerere så tjek lige nr.16 side 51. Fra 6 linier over overskriften DIGITAL GRAFIK, plus afsnittet. Her er tale om 3,2 til 9,6 gbit/s for den nye DVI standard. Her er også beskrevet hvad vga-standarden er defineret til.
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.