af Webmaster Friday den 06 July 2001 kl. 13:08 [ Grafikkort ] NVNews.net har undersøgt en speciel funktion ved GeForce3, som minder meget om "tile based rendering" hos Kyro2. Funktionen ved GeForce3 hedder "occlusion culling" og sørger for, at GeForce3 ikke spilder tid med at optegne objekter, som alligevel aldrig bliver vist på skærmen (f. eks. et træ, som står bag en mur). NVnews har testet GeForce3 mod GeForce2 ULTRA, så du direkte kan se; 1) betydningen af occlusion culling og 2) betydningen af Lightspeed Memory Architecture.
Testprogrammet, som belyser occlusion culling og den forbedrede båndbredde hos GeForce3 (GeForce3 besidder som nævnt "Lightspeed Memory Architecture", mens GeForce2 ULTRA ikke besidder denne egenskab) hedder GL_EXT_reme og kan downloades her:
Testprogrammet GL_EXT_reme udfører test med f. eks. 3 gange overdraw. Dette skulle således gerne kunne sammenlignes med en scene, hvor der er en baggrund, mellemgrund og forgrund (forestil dig et hus i baggrunden, en have i mellemgrunden, og en høj hæk i forgrunden. Den høje hæk skygger for hele huset og haven). En sådan scene kan optegnes på f. eks. to måder, nemlig "front to back" eller "back to front". Hvis metoden "back to front" benyttes, betyder det, at computeren starter med at optegne baggrunden og dernæst mellemgrunden og forgrunden. "Back to front" er dermed ikke nogen særlig smart metode, hvis vi i scenen har en høj hæk, som gør det umuligt at se, hvad computeren har brugt en masse tid på at optegne i baggrunden og forgrunden. "Front to back" med GeForce3 er derimod meget smartere. Med "front to back" starter GeForce3 med at optegne forgrunden (den høje hæk) og via mekanismen "occlusion culling" optegner GeForce3 kun de objekter fra mellemgrunden og baggrunden, som sluttelig kan ses på skærmen (så takket være occlusion culling behøver GeForce3 ikke spilde kostbar tid og kræfter på at optegne huset og haven i mellemgrunden og baggrunden). Så vi kan sammeligne "front to back" og "back to front" med Kyro2:
Med "back to front" optegnes alle elementer (fra baggrund til forgrund, jvf. venstre halvdel af ovenstående figur), mens "front to back" starter med at optegne forgrunden og dernæst mellemgrund og baggrund. Med occlusion culling kan GeForce3, på stort set samme måde som Kyro2 (selvom Kyro2 nok er lidt mere effektiv på dette punkt), nøjes med at optegne synlige objekter. GeForce2 ULTRA besidder ikke occlusion culling, og vinder dermed ikke meget ved "front to back" i stedet for "back to front". Prøv i første omgang nu at se nedenstående resultater, og læg især mærke til "front to back":
Selvom GeForce2 ULTRA og GeForce3 besidder præcis samme ram-type og ram-hastighed (128bit DDR-ram med 460MHz effektiv hastighed (230 MHz x 2)), så er GeForce3 takket være occlusion culling ca. 100% hurtigere end GeForce2 ULTRA med "front to back". Med "Back to front" skal begge grafikkort optegne både baggrund, mellemgrund og forggrund, og GeForce3 kan i dette tilfælde ikke benytte occlusion culling, men vi kan nu se "Lightspeed Memory Architecture" i aktion hos GeForce3. Det vil sige, at med occlusion culling + lightspeed memory architecture (front to back) er GeForce3 ca. 100% hurtigere end GeForce2 Ultra. Når occlusion culling med "back to front" træder ud af funktion, ser vi, at GeForce3 er 25% hurtigere end GeForce2 ULTRA takket være Lightspeed Memory Architecture (så vi kan på denne måde dissociere occlusion culling fra lightspeed momory architecture). Resultaterne fra "random order" hentyder til, at scenen optegnes vilkårligt (og således kan starte med mellemgrunden). Alle ovenstående resultater er opnået med 3 lag, som skal optegnes (svarende til baggrund, mellemgrund og forgrund). Men hvad nu, hvis vi havde en meget mere kompliceret scene, hvor hele 8 lag skal optegnes? Prøv at se her:
Med 8 lag er GeForce3 ikke længere "kun" 100% hurtigere end GeForce2 ULTRA, når "front to back" metoden anvendes, men er derimod næsten 200% hurtigere (= 3 gange så hurtig som GeForce2 ULTRA)! Så jo mere kompliceret et spil bliver, desto hurtigere bliver GeForce3 sammenlignet med GeForce2 ULTRA (da GeForce2 skal arbejde hårdere jo højere komleksiteten bliver, mens GeForce3 blot kan sortere meget mere fra). Selv med "random order" er GeForce3 nu 100% hurtigere end GeForce2 ULTRA. Med "back to front" er forskellen stadig 25%, som vi også burde forvente, da occlusion culling ikke virker i dette tilfælde (og så mister GeForce3 jo næsten al sin mojo).
KONKLUSION
Med occlusion culling bliver GeForce3 op til 3 gange så hurtig som GeForce2 ULTRA. Med 3 gange overdraw var GeForce3 dobbelt så hurtig som GeForce2 ULTRA, mens denne hastighed steg til 3 x GeForce2 ULTRA, når 8 gange overdraw blev benyttet. Disse fantastiske hastighedsforbedringer var dog kun tilstede, når en scene blev optegnet fra forgrund mod baggrund, hvorved GeForce3 via occlusion culling kunne undlade at optegne alle de objekter, som alligevel aldrig ville blive vist på skærmen. Hvis alle objekterne blev optegnet i tilfældig rækkefælge (random order), kunne GeForce3 kun delvis benytte occlusion culling, og GeForce3 var i dette tilfæde op til dobbelt så hurtig som GeForce2 ULTRA. Uden occlusion culling, som træder ud af kraft, når en scene optegnes fra baggrund mod forgrund, var GeForce3 25% hurtigere end GeForce2 ULTRA takket være, at GeForce3 besidder "Lightspeed Memory Architecture".
Rune skrev Friday den 06 July 2001 kl. 13:15: [ svar | nyeste ]
Jeg postede igår et link til ovenstående resultater i en kommentar, men da kun 4 har læst min kommentar, tænkte jeg, at vi hellere måtte bringe hele historien - der er jo tale om yderst interessante resultater, som kan få omfattende betydning, når meget avancerede spil som f.eks. Aquanox, Dronez, Unreal2 og Doom3 udkommer.
Rune har du et asus v8200 deluxe?
Hvis du har hvordan kører det så?
Jeg tror nemlig at jeg skal havde sådan et sammen med en athlon4.
Anders skrev Friday den 06 July 2001 kl. 17:31: [ svar | nyeste ]
Jeg har et Asus V8200 Deluxe. Det kører simpelthen super stabilt og hurtigt. Jeg kører det sammen med en Thunderbird 1200 (133 FSB, ingen DDR ram).
Jeg får ikke de sindsyge scores i f.eks. 3DMark2000 (8192) og 2001 (5029) men jeg har også droppet overclocking fuldstændig.
Der var lidt problemer med nogle textures der ikke blev tegnet, men det forsvandt med Detonator drivere senere end ver. 12.10. Nu kører jeg med Asus ver. 12.60 og de er fine.
Rune skrev Friday den 06 July 2001 kl. 18:05: [ svar | nyeste ]
Jo, jeg har Asus V8200 Deluxe. Fordelen ved dette kort er, at du kan monitorere temperaturen på din gpu, på rammen og se roteringshastigheden på din GPU-blæser. Endvidere har du TV-Out (composite), TV-Out (S-VHS), TV-In (S-VHS), udgang til 3D-Briller og udgang til monitor (D-SUB). Jeg har ikke prøvet at overclocke GPU'en over 220 MHz, men rammen kan højst klare 510-515 MHz hos mig. Eftersom Nvidia leverer DDR-rammen sammen med NV20-GPU'en, så har Asus nøjagtig samme kvaltet af GPU + DDR-ram, som alle andre GeForce3-producenter på markedet. Så Asus kan overclockes lige så meget, eller lige så lidt, som alle andre GeForce3-kort på markedet. Fordelen ved Asus er udelukkende monitoreringsmuligheder, medfølgende software + udstyr, og altså ikke ydelse eller overclockningspotentiale.
Med P3 953/112,5 MHz (BX-bundkort) får jeg 7200 points i 3DMark2000 (Anders får her 14% mere på hans 1,33 GHz Thunderbird system), og i 3DMark 2001 får jeg 4986 (Anders får her 1% mere). Men så har jeg til forskel fra Anders også overclocket til 220 MHz GPU og 500 MHz ram (hvilket giver ca. 200 points mere i 3DMark2001 og næsten intet betyder i 3DMark2000, fordi 3DMark2000 er meget mere afhængig af cpu end af grafikkort).
Asus grafikkortet har endvidere ret flot design (sort PCB, forgyldte køleribber - nu vil enkelte obsevatører måske mene, at design på et grafikkort kan være hamrende ligegyldigt, eftersom grafikkortet sidder skjult i maskinen. Men dette er vel blot en af de små underlige detaljer, som forkvaklede hardwarenørder af uforklarlige årsager går ret meget op i :-)
Rune skrev Friday den 06 July 2001 kl. 18:16: [ svar | nyeste ]
Lige en detalje, Asus V8200 Deluxe virkede fint hos mig med Detonator 12.10 (fra Asus), men alle OpenGL-spil havde en tendens til at gå ned, når jeg forlod spillet (men virkede dog fint inde i spillet). Jeg benytter nu 12.41 referencedriver fra Nvidia (og har installeret Nvidia referencedriver til support af 3D-Briller, som jeg dog endnu ikke har testet), og nu virker alle OpenGL-spil mm. perfekt. Og en anden lille detalje. I 1152x864x32 i Q3A med samtlige settings i max. + high sound ligger jeg på 106 FPS, hvilket er ret godt. Giants v. 1.4 kører ligeledes helt fantastisk (Giants blev op til 100% hurtigere med den nye 1,4 patch), men intet overgår MDK2 i 1152x864x32 med alt i max. - det er i sandhed en religiøs oplevelse (den ligger vel på 90 FPS grundet 90Hz skærmopdatering konstant). Eller sagt på en anden måde:
MDK2:
640x480x16 = 129 FPS
1152x864x32 = 126 FPS
Med en hurtigere cpu havde jeg nok scoret mere i 1152x864x32. Bare ærgerligt, at jeg ikke bryde mig om gameplayet i MDK2...
Det kan godt være det lyder lidt latterligt, men noget af grunden til at jeg ikke vælger fx. et hercules er at kortet ser forfærdelig grimt ud. Hercules geforce2 gts 64 mb så vildt godt ud men jeg syntes ikke om deres nye. Hovedgrunden til at jeg vælger asus frem for hercules at jeg personligt har stor tiltro til asus produkter
Rune skrev Friday den 06 July 2001 kl. 22:05: [ svar | nyeste ]
Asus plejer jo også at være referencen, deres 40 speed cd-rom-drev er fantastisk godt, og blandt Nvidia-baserede grafikkort og bundkort har de ikke megen konkurrence. Jeg var dog meget skuffet over Asus 8x DVD-drev (som var direkte elendigt, kunne ikke læse flere skiver), men det kan være, at Asus har oppet sig også på dette område sidan da (men jeg ville nu ikke satse alle mine sparepenge på det)...
Rune skrev Saturday den 07 July 2001 kl. 11:15: [ svar | nyeste ]
X-BitLabs har overclocket GeForce3 til 270MHz GPU og 600 MHz ram, så her er vel sneak-peak på noget, som nok vil minde en del om GeForce4 (nv25) i Q3A. Se det hele her:
Undskyld hvis jeg sprøger dumt hvor slår man den funktion til. Altså så den ikke optegner ting der alligevel ikkebliver vist på skærmen?
Rune skrev Sunday den 08 July 2001 kl. 21:48: [ svar | nyeste ]
Funktioner som occlusion culling hos GeForce3 er indbygget via hardware+drivere, du kan ikke selv slå det til eller fra, det er blot en måde, som GeForce3 chippen fungerer på (ligesom Kyro2 er designet til at anvende tile based rendering).
Rune skrev Sunday den 08 July 2001 kl. 21:53: [ svar | nyeste ]
The Inquirer har postet ny info om GeForce4 (NV25), som ser ud til at ankomme til foråret 2002. Ifølge The Inquirer vil NV25 være en tro kopi af X-Box chippen, indeholde 2 vertex shadere + øget antal MHz ifht. GeForce3, og kun være kompatibel med DX8.1 (og ikke DirectX9.0). Så det ser ud til, at Nvidia tager udviklingen af nye grafikchips med stoisk ro. Dette kan være en stor mulighed for ATi og Kyro3... Læs mere her:
Hvordan bestemmes, om GF3 optegner grafikken som "Back to front" eller som "front to back"?
Peter
Rune skrev Tuesday den 10 July 2001 kl. 14:20: [ svar | nyeste ]
Såvidt jeg ved, så er det spil-designerne som bestemmer, om der renderes "back-to-front" eller omvendt. Sandsynligvis er der for de fleste spil tale om, at der renderes i "random order", hvilket vel også er bedre end ingenting. Eftersom "front-to-back" kun er meget hurtigere på GeForce3 (og sikkert også Kyro1-2, hvor driverne vel per definition altid må forcere noget, der svarer til "front-to-back"). Så før GeForce3 har der ikke være megen grund til at spekulere i optegnings-ordner, men mon ikke Hr. Carmack og Hr. Sweeney lægger stor vægt på "front-to-back", når Doom3 og Unreal2 udkommer...
Rune skrev Thursday den 30 August 2001 kl. 14:56: [ svar | nyeste ]
Det ser nu ud til, at Nvidia offentliggør 3 nye produkter næste måned, nemlig:
1. GeForce3 Titanium 500. Dette svarer til GeForce3 PRO/ULTRA, og GPU'en er yderligere udvidet med Shadow Buffers (basis for at lave realistiske skygger) og understøtter endvidere nye muligheder mht. 3D texturer.
2. GeForce3 Titanium 200. Svarer til GeForce3 MX, men er baseret på samme kerne som GeForce3 500 Titanium.
3. GeForce2 Titanium. En GeForce2 variant.
Så Nvidia har bestemt ikke ligget på den lade side.Læs mere her:
GeForce3 Titanium 500 -hmmmm... Laver ASUS mon et V8200 Superduper DeLuxe ??? Måske skulle man købe et sådant...
Rune skrev Monday den 03 September 2001 kl. 14:52: [ svar | nyeste ]
Næh, nej, køb du blot et GeForce3 Ti 200 (to-hundrede). Ellers bliver jeg jo nødt til selv at opgradere mit Asus V8200 Deluxe for at slippe for konstant at høre om dit nye grafikkort...ak og vé... :-)
Rune skrev Tuesday den 04 September 2001 kl. 10:47: [ svar | nyeste ]
Det ser ud til, at GeForce3 Ti 500 (=GeForce3 Ultra) ankommer inden for 6 uger og vil koste US$ 400 (dvs. det samme, som da GeForce3 ankom i april). Læs mere her:
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.