Test af stort antal grafikkort i 1024x768 (oktober 2004)
af Webmaster Saturday den 02 October 2004 kl. 23:58 [ Grafikkort ] Det russiske site iXBT har atter testet et stort antal aktuelle grafikkort, og vi fokuserer i denne artikel på ydelse i en skærmopløsning på 1024x768 pixels med 4xFSAA og 8-16xANI. Som noget nyt tilbyder iXBT resultater fra bl.a. Radeon X700XT, Radeon X800XT (non-PE) og GeForce 6600GT. Vi fokuserer i denne artikel på GeForce 6800 (Ultra og GT), Radeon X800 (Pro, XT og XT Platinum Edition), GeForce 6600GT, Radeon X700XT, Radeon 9800 (Pro med 128MB og XT) og GeForceFX (5950 Ultra og 5900 XT).
Følgende hardware blev anvendt af iXBT:
AGP-system (vist med grøn farve nedenstående):
CPU: Athlon 64 3200+ (2,0 GHz)
BUNDKORT: K8T800-baseret bundkort fra Asus (K8V SE Deluxe)
RAM: 1GB PC3200
PCI-Express-system (vist med rød farve nedenstående):
CPU: Intel Pentium4 3600 MHz (225MHz x 16)
BUNDKORT: i925X-baseret fra Abit (AA8 DuraMAX)
RAM: 1GB DDR2 300MHz (="600" MHz)
Fælles:
STYRESYSTEM: WindowsXP Pro (SP2) med DX9.0c
Alle Nvidia grafikkort er testet med beta-driver Forceware 65.76, mens ATi grafikkort benyttede Catalyst 4.9 (officiel WHQL-certificeret referencedriver). Bemærk, at beta-Forceware 65.76 medførte ustabilitet i Unreal Tournament 2003 og Unreal 2 på Athlon 64, mens iXBT ikke fandt problemer med Catalyst 4,9.
Eftersom kun få grafikkort er testet på PCI Express systemet, så kommenteres fortrinsvist resultater fra Athlon 64 (disse resultater er angivet via en grøn linie i nedenstående resultater, mens P4 systemet med PCI Express x16 benytter rød farve). Fordi inklusion af testresultater fra både P4 og Athlon 64 gør diverse oversigter mht. testresultater meget omfattende, så har vi valgt at fjerne testresultater fra grafikkort, der er langsommere end GeForceFX 5900XT eller Radeon 9800 Pro, da langsommere grafikkort pricipielt er uinteressante i mange aktuelle og kommende spil (i høje opløsninger). Endvidere burde 6600GT og X700XT være flaskehalse i diverse testede spil, således at disse kan sammenlignes med AGP-grafikkort, selv om forskellige platforme benyttes (under alle omstændigheder kan 6600GT og X700XT sammenlignes indbyrdes).
Ønsker man at se resultater fra langsommere grafikkort eller fra 1024x768 uden 4xFSAA og 8-16xANI, 1280x1024 eller 1600x1200, så kan man i dette tilfælde finde den russiske originalartikel her:
Dvs. den originale artikel indeholder 32 billeder med testresultater fra forskellige skærmopløsninger, mens vi i denne artikel fokuserer på 7 forkortede billeder fra en bestemt skærmopløsning (idet resultater med low-end grafikkort er skåret fra på hvert inkluderet billede). Bemærk, at alle GeForceFX grafikkort kun anvender 8xANI, fordi disse ikke understøtter 16xANI - resterende grafikkort (Radeon 9800 - X800 og GeForce 6800-serien) anvender alle 16xANI. Vi starter med Call of Duty:
Ved at sætte hurtigste udvalgte grafikkort til 100% kan andre grafikkort rangordnes i forhold til dette hurtigste grafikkort; som beskrevet før, så fokuserer vi kun på de grønne linier på ovenstående billede (Athlon 64, AGP8x, yderligere er grafikkort, der ikke anvender standardhastigheder, ikke medtaget):
Her vinder Nvidia 6800U og 6800GT store sejre over Radeon X800XT PE. Radeon X800Pro må endvidere se sig slået stort af GeForce 6800, og eftersom både 6800 GT og 6800 koster det samme eller er billigere end hhv. X800XT PE og X800Pro, så er der næppe meget for ATi at stille op i denne test. Det skal dog bemærkes, at Call of Duty er et af de få spil, hvor man får fuld valuta for 256MB ram på grafikkortet, og desværre ser det ikke ud til, at Digit-Life har testet med maksimale teksturindstillinger, eftersom der i resultaterne fra Digit-Life ikke er forskel på 128MB eller 256MB på grafikkortet. Så entusiaster kan næppe bruge ovenstående resultater fra Call of Duty til at vurdere reelle forskelle på grafikkort med 128MB eller 256MB ram. Vi fortsætter med Tomb Raider AOD:
I Tomb Raider AOD går det noget bedre for ATi's aktuelle high-end grafikkort end i Call of Duty (Radeon X700XT ydede kun 11 FPS og kan derfor ikke ses på ovenstående billede):
Her vinder X800XT PE en stor sejr over 6800U, mens X800Pro og 6800 GT yder ensartet. Af en eller anden grund knækkede filmen helt for Radeon X700 XT. Sidste års topmodeller, især GeForceFX-baserede, har helt tabt pusten ifht. Radeon 9800Pro/XT. Vi fortsætter med resultater fra Unreal 2:
Resultater med X800XT (PE) og GeForce 6800 Ultra virker cpu-begrænsede, idet der reelt ikke er forskel på disse kort mht. ydelse. Endvidere var Radeon X800Pro og GeForce 6800GT lige hurtige. 9800XT og 9800Pro vinder dog fortsat markante sejre over 5950U og 5900XT, mens Radeon X700XT og 6600GT er meget jævnbyrdige. Lad os se, hvordan det går i Far Cry:
X800XT (PE) vinder en markant sejr over 6800U, og 6800GT må ses sig overgået af X800 Pro. Atter knækker filmen for X700XT, hvilket indikerer, at der er problemer med enten bundkort, grafikkort eller driverne. Radeon 9800Pro/XT vinder som sædvanligt over 5950 og 5900XT. Vi fortsætter med resultater fra en meget tidlig version af Half-Life 2, hvor resultaterne ikke ser ud til at stemme med den aktuelle Video Stress Test:
Diverse resultater i Half-Life 2 alfa tager sig aktuelt således ud, og virker desværre atter cpu-begrænset - men 1024x768 med 4xFSAA og 16xANI er også en dans på roser for aktuelle high-end grafikkort:
Ydelsesmæssigt er der ikke forskel på X800XT (PE) og 6800U, mens 6800GT og især X800Pro ligger under toppen af high-end gruppen. X700XT vinder over 6600GT, mens 9800Pro/XT traditionen tro dominerer over 5950U og 5900XT. Lad os se, hvorledes alt spænder af i Painkiller:
Her ses en minimalistisk sejr til X800XT PE med 6800U/GT/X800XT lige i hælene. X800Pro vinder over 6800, men er noget bagefter 6800GT. GeForce 6600 GT klarer sig for første gang markant ringere end X700XT og 9800XT, mens 9800Pro og 5900XT næsten er lige hurtige. Lad os slutte af med at se, hvorledes det går i Doom3:
Doom3 er meget hurtigere på aktuelle Nvidia grafikkort end på ATi grafikkort, hvilket næppe vil ændre sig en smule før ATi udgiver Catalyst 4.10 eller 4.11:
Nvidia dominerer her med hård hånd og giver storsmæk til X800XT (PE) og X800Pro. Dvs. X800XT PE yder dårligere end GeForce 6800, men koster det dobbelte. X800Pro er langt bagefter GeForce 6800 og taber endda til 6600GT. GeForceFX 5950 Ultra vinder over 9800XT, men mht. sidste år topmodeller gælder, at ingen af disse er velegnede til at afvikle Doom3 i 1024x768 med 4xFSAA og 8-16xANI.
KONKLUSION OG AFSLUTTENDE KOMMENTARER
Vi kan slutte af med at udregne gennemsnitlige resultater for de grafikkort, som vi har fokuseret på ovenstående:
Plads 3 og 9 er delte. Skulle disse resultater virke uoverskuelige, så er her en grafisk afbildning uden spredning:
GeForce 6800 Ultra vinder her efterfulgt af Radeon X800XT PE, mens GeForce 6800 GT og Radeon X800XT deler tredjepladsen. Radeon X800Pro vinder over GeForce 6800, mens GeForce 6600 GT vinder over Radeon X700XT, så der ser ud til at være ganske megen balance i styrkefordelingen mellem ATi og Nvidia. I næste måned ser vi nærmere på resultater fra 1280x1024 uden FSAA og ANI.
Fin opsummering, man skal dog som bruger huske at hvis man f.eks. ikke gamer doom3 vil xt800 xt pe være den samlet vinder.
Ati har iøvrigt lige udgivet en cat 4.10 beta med et fix til 256 mb kort som har givet et ordenligt boost, kunne være interessant at se samme test udført med den :)
Men nu har vi snart fået nok test, skulle vi ikke snart se nogle kort i butikkerne herhjemme i Danmark!! :(
Lige en hurtig (og kun lidt ligegyldig) kommentar: Når 3. pladsen er delt mellem to kort falder 4. pladsen så ikke væk ? (Rækkefølgen på pladserne bliver: 1,2,3,3,5,6,7,8,9,10,10,12)
Herlig artikel, fint at der er en ny test af grafikkort i starten af hver måned. Ovenstående tests bekræfter endnu engang at Geforce 6800 GT ser ud til at være den bedste løsning ift. prisen og ydelsen - herligt med en 3. plads!
Kian Jakobsen: Underligt nok at nVidia har overtaget føringen i HL2, da det spil skulle være specielt optimeret til ATI kort!
Kian, GeForce 6800 Ultra plejer at vinde i Half-Life 2 "ALFA" (dog kun med få FPS) over Radeon X800 XT PE...
Men i den nye test; VIDEO STRESS TEST (HALF-LIFE 2 SOURCE-ENGINE)
vinder X800 XT PE stort...
Som Rune også skriver: Vi fortsætter med resultater fra en meget tidlig version af Half-Life 2, hvor resultaterne ikke ser ud til at stemme med den aktuelle Video Stress Test.
Folk der tester grafikkort i CPU-begrænsede opløsninger burde piskes på torvet - så kunne det være, at vi fik noget opmærksomhed omkring denne (evigt tilbagevendende) problematik.
gukker skrev Sunday den 03 October 2004 kl. 10:43: [ svar | nyeste ]
jeg ville ikke købe et nyt kort til over 3k ud fra den her test.efter min mening skal vi da op i 1600*1200 for at få et rigtigt billede af styrkeforholdene lige nu:)
Anders skrev Sunday den 03 October 2004 kl. 13:30: [ svar | nyeste ]
Nogen der kan forklare mig forskellen på et 6800GT og et 6800GT PCX... samme GPU/RAM hastigheder, men forskel i ydelsen! Hvad er forklaringen???
Rune skrev Sunday den 03 October 2004 kl. 13:39: [ svar | nyeste ]
P4 systemet anvender 3600/225 MHz cpu (dvs. en overclocket P4 3,2 GHz), mens Athlon 64 systemet anvender alm. Athlon 64 3200+; så det kan ikke udelukkes, at der i enkelte cpu-begrænsede test kan være forskelle på disse systemer - især mht. til toppen af high-end kategorien i mere eller mindre cpu-begrænsede test (mellemklasse grafikkort som X700XT og 6600GT burde i langt mindre grad kunne relateres til tilsvarende problemer, fordi disse ikke har fillrate nok til at følge med de anvendte cpu'er). Jeg vil derfor mene, at en relevant sammenligning af PCIe og AGP8x mht. high-end grafikkort ville kræve tilsvarende cpu'er (f.eks. P4 3,4 GHz på begge platforme) osv., og derfor ville jeg ikke lægge vægt på forskelle på 6800GT PCIe og AGP8x mht. ovenstående resultater - dvs. forskelle på cpu'er vil jeg gætte på forårsager variation mht. PCIe og AGP8x på 6800GT i ovenstående artikel.
0x53589f3c.ronxx2.adsl-dhcp.tele.dk skrev Sunday den 03 October 2004 kl. 15:12: [ svar | nyeste ]
hvnor kommer næste stoer hit? ATI eller NVIDIA med 512 RAM. hvis doom3 og ander stoer spil kraver det? RUNE!!!!!!!!!!.
Rune skrev Sunday den 03 October 2004 kl. 15:26: [ svar | nyeste ]
High-end grafikkort med 512MB ram forventes først i 2005, eftersom rygter tyder på, at Samsung har problemer med at levere tilstrækkeligt store mængder til X800XT PE og 6800U (dette skulle være en af årsagerne til, at Nvidia og ATi har svært ved at levere nok at disse grafikkort). Half-Life 2 forventes ca. 26. november 2004, så her har du nok "næste store hit" efter Doom3. Ellers forventes STALKER i starten af 2005. Kun Doom3 ser dog indtil videre ud til at kunne udnytte 512MB ram på grafikkortet, så der er næppe grund til at savne dette indtil videre (eftersom stort set ingen kan se forskel på High og Ultra Quality i Doom3). Mere info her:
-> Anders, forskellen her på de to grafikkort er hvilken platform de er til, 6800GT er et AGP-kort hvorimod 6800GT PCX er til bundkort med pci-ekspress(PCIe)sokler.
Indtil videre er det lidt for tidligt at konkludere hvad der er hurtigst, den "gamle" optimerede AGP-platform eller den "nye" pci-ekspressstruktur(PCIe). Med tiden vil det blive PCIe idet der er flere fordele ved denne struktur, samt nyere teknologi forhåbentlig skulle bringe forbedringer.
KuLLa skrev Sunday den 03 October 2004 kl. 15:55: [ svar | nyeste ]
Ser lækkert ud at mit kort ligger på en 5. plads.:) Og WEEEE! Half-Life 2 med så mange fps!
Alex skrev Sunday den 03 October 2004 kl. 16:27: [ svar | nyeste ]
jeg vil gerne snart se en test i opløsning 1024*768 eller 1280*960 uden alt det der antialising (4xFSAA og 8-16xANI) (alt det der på nul) spiller altid uden fsaa og ani og i en af de to opløsninger...
Gandalf skrev Sunday den 03 October 2004 kl. 16:41: [ svar | nyeste ]
KuLLa:
Du er godt dum, hvis du spiller HL2 i 1024*768 med et X800 Pro :P
PS: Også ret nice at se mit kort på en 3. plads og slet ikke så langt fra de andre =) (til gengæld er der langt ned til X800 Pro kortet :P(driller bare(fedt med så mange paranteser, ikke?:D)))
KuLLa skrev Sunday den 03 October 2004 kl. 16:44: [ svar | nyeste ]
Hvorfor det Gandalf? Mener du at jeg skal højere op?
cpe.atm2-0-54342.0x50c7b42e.virnxx9.customer.tele.dk skrev Sunday den 03 October 2004 kl. 19:03: [ svar | nyeste ]
Producerer X800XT kortet bedre grafik end Geforce 6800 ULTRA kortet, eller omvendt, eller går det ud på ét, og drejer det sig kun om ydelsesforskelle i de forskellige spil?
Rune skrev Sunday den 03 October 2004 kl. 19:52: [ svar | nyeste ]
Hey. Jeg kunne godt tænke mig at vide hvordan man kan åbne for de 4 ekstra pipelines på sit x800pro, så det bliver til et xt (næsten). Er der ikke en (Rune?) der vil fortælle mig hvordan man gør?
På forhånd tak.
Rune skrev Sunday den 03 October 2004 kl. 20:04: [ svar | nyeste ]
Alt er på eget ansvar, men ofte kan VIVO-modellerne af X800Pro klare at blive låst op til 16 pipelines. Læs mere her:
Gandalf skrev Sunday den 03 October 2004 kl. 20:27: [ svar | nyeste ]
KuLLa: Er du seriøs? Spiller du altid i 1024*768 med dit X800 Pro? Så kunne du sgu ligeså godt have sparet dig og købt et 9800 Pro eller Geforce 6800 i stedet...
KuLLa skrev Sunday den 03 October 2004 kl. 22:14: [ svar | nyeste ]
Gandalf: Nejnej, jeg kører gerne 1280x960/1024. Også i Far Cry.
Men jeg troede så bare at HL2 ville være så krævende at jeg sku ned på 1024x768. Grunden til at jeg troede det, er på grund af at jeg må det i Medal of Honor Pacific Assault.
Anders skrev Sunday den 03 October 2004 kl. 22:48: [ svar | nyeste ]
Rune: X800XT iceQ2 har lange udsigter, og nu gider jeg snart ikke vente mere. Hvis du skulle købe et high-end-kort nu (dog ikke 6800ultra pga strømforbrug og strømstik osv), hvad ville du så vælge? Jeg er tæt på at bestille Galaxy-kortet fra overclockers i England.
Rune skrev Sunday den 03 October 2004 kl. 23:02: [ svar | nyeste ]
Jeg er helt enig i, at Galaxy GeForce 6800GT er næstbedste løsning efter HIS X800XT PE IceQ2. En tredje mulighed vil være X800Pro VIVO fra Sapphire Toxic eller HIS IceQ2 samt forsøg på at flashe bios til X800XT PE. Personligt afventer jeg dog de første redegørelse mht. 3Dc i Tribes Vengeance og Half-Life 2 - dvs. jeg har ventet siden juli og kan nok holde ud lidt endnu (dog primært takket mit aktuelle Radeon 9700 Pro, som fortsat klarer sig over al forventning).
asger skrev Monday den 04 October 2004 kl. 00:50: [ svar | nyeste ]
@ Alex. Hvorfor spiller du uden AA og AF. Er det en fiks ide eller har du et ældre kort? AA kan diskuteres, men ikke AF....
82.143.203.237 skrev Monday den 04 October 2004 kl. 07:36: [ svar | nyeste ]
hej fed artikel der har overbevist mig om at jeg skal have et Geforce 6800 istedet radeon 9800xt, men geforce kortene kræver minimum 350 watt psu og jeg har AMD Athlon Barton XP 2500+, 2x512 mb (pc2700),120 gb seagate harddisk, 350 watt psu, vil det fungere sammen.
Rune skrev Monday den 04 October 2004 kl. 10:50: [ svar | nyeste ]
Det burde fungere fint. 6800 Ultra kan fungere med god 350W, så du burde slet ikke have problemer med 6800.
Anders A skrev Wednesday den 13 October 2004 kl. 15:11: [ svar | nyeste ]
Jeg har kørt et GeForce 6800 Ultra uden problemer med en 350 Watt PSU på en Pentium 4 2.53@3.06 GHz platform. En kraftigere PSU er dog nødvendig, hvis man kører P4 Prescott eller AMD Athlon 64, da disse har et højere effektforbrug.
Rune skrev Thursday den 14 October 2004 kl. 10:33: [ svar | nyeste ]
Athlon 64 3400+ har faktisk lavere effektforbrug end P4 3,06 GHz:
Så det er ikke umuligt, at du skal op på Athlon 64 4000+, før effektforbruget svarer til P4 3,06 GHz. Dvs. at ejere af Athlon 64 har generelt mindre brug for kraftige strømforsyninger relativt til ejere af både P4 Northwood og Prescott (især med 90nm Athlon 64 ser effektforbruget ud til yderligere at falde med ca. 30% - formodentlig mere end en halvering af effektforbruget hos disse cpu'er relativt til tilsvarende Prescott).
En sjov tendens.
Geforce6800LE der koster ca. det same som Geforce6600GT. Viser generelt bedre ydelse!!
Måske noget man skal tænke over når man skal købe grafikkort næste gang til ca. 2000kr. At det alvorligt handicappede 6800LE faktisk kan ser rigtigt godt ud til prisen
Messiah skrev Monday den 04 October 2004 kl. 12:54: [ svar | nyeste ]
Er der overhovedet nogen i hele det danske land der spiller Tomb Raider AoD?
Jeg forstår ikke at den test altid bliver inkluderet. Spillet har fået en elendig kritik og er et fantastisk eksempel på slam-programmering. Den eneste det spil kan, er at garantere at ATI's hedengange high-end kort får en god score, og Nvidia's en lav.
*SCAN* Please hold.... no fanboy mentality detected *SCAN*
Pga det er et spil der i den grad stresser grafikkortet, og bruger ps2.0 på en meget omfattende måde.
Kan godt være spillet stinker, men det æder i den grad gpu kraft
Messiah skrev Monday den 04 October 2004 kl. 14:00: [ svar | nyeste ]
Om det er krævende eller ej er i denne sammenhæng ligegyldig, da det ikke er resultatet af ekstensiv brug af ps2.0 eller lign. Derimod er det er resultatet af dårlig kode at ydelsesforskellen imellen Nvidia og ATI er så stor.
Derfor at spillet ikke represæntativt for generel ydelse i spil. Var det et spil som folk spillede var det selvfølgelig en relevant test, for så burde de selvfølgelig vælge sig et ATI kort.
Rune skrev Monday den 04 October 2004 kl. 14:54: [ svar | nyeste ]
Der er vel næppe nogen beviser for, at Tomb Raider AOD er dårligt programmeret - om spillet så er godt eller dårligt kan selvfølgelig diskuteres, men må sluttelig være op til individuel smag og behag. Derudover ser Tomb Raider AOD ud til at korrelere med ydelse i Half-Life 2 VST og 3DMark05 (grundet omfattende brug af Pixel Shader 2.0), og alene af den grund kan spillet formodentlig repræsentere særligt krævende DX9-spil. Derudover kan man selvfølgelig vælge blot at fokusere på de spil, som man holder mest af; netop derfor er der procentuelle udregninger associeret til hvert billede i ovenstående artikel. Skulle jeg fjerne en test, så var Half-Life 2 alfa røget, idet netop denne test kan kritiseres for uholdbare resultater.
EP skrev Monday den 04 October 2004 kl. 18:56: [ svar | nyeste ]
Der vel ikke noget argument for at generalisere ydelsen fra Tomb Raider, Half-life og 3DMark05 til at beskive hvorledes vi kan forvente ydelsesfordelingen for de forskellige kort i fremtidens spil. De marginaler der afgør hvilket kort der har den gule shadertrøje på er ganske givet relateret til engine arkitektur, såvel som de forhold der gør sig gældende vedrørende resourcer der anvendes og hvorledes de anvendes og administreres i fremtidens spil. Jeg er sikker på at både ATI's og nVidia's bedste grafikprocessorer vil ligge i skiftevis føring i kommende spil fordi de jo hver især har deres fordele og ulemper når de presses i bund. Shader 2.0 argumentet holder jo i særdeleshed heller ikke når det nu er den samme shader-teknologi der anvendes i både directX og openGL hvor vi jo ser to forskellige performance-grafer.
WinWiz skrev Saturday den 09 October 2004 kl. 14:08: [ svar | nyeste ]
hmm hvis stor ydelses forskel mellem ATI og Nvidia beviser at et spil er dårligt programmeret så mener du måske også at resultater fra Doom3 ikke bør medregnes??
Thomas skrev Monday den 04 October 2004 kl. 14:09: [ svar | nyeste ]
Hvad er der gjort ved 6800LE i forhold til 6800 siden den yder lidt dårligere?
Rune skrev Monday den 04 October 2004 kl. 14:59: [ svar | nyeste ]
6800LE skulle anvende 8 pixel pipelines, mens 6800 anvender 12. 6800 GT og Ultra anvender 16. Læs mere her:
Rune skrev Monday den 04 October 2004 kl. 15:14: [ svar | nyeste ]
Tom's Hardware har netop udført lignende test som iXBT; dvs. stort antal grafikkort testes i 1024x768 med og uden 4xFSAA og 8xANI - resultater fra 1600x1200 med 4xFSAA og 8xANI er også inkluderet:
gukker skrev Monday den 04 October 2004 kl. 17:03: [ svar | nyeste ]
rune du nævner længere oppe 3dc...har du set nogen spil i nu som understøtter det?:)..ati sagde jo at det var nemt at fører ind i spil via en patch..jeg har kun hørt om HL2 og så serius sam 2 som skulle understøtte det..synes bare det er mærkeligt at nu har 800pro kortet været tilgægelig snart et halvt år.men jeg har ikke bemærket nogen spil der gør brug af det:)
m.v.h gukker
ps:sorry vis det er lidt væk fra emnet:)
Rune skrev Monday den 04 October 2004 kl. 18:11: [ svar | nyeste ]
Tribes Vengeance understøtter 3Dc og udkommer 5. oktober (måske kun i USA), derudover skulle Far Cry understøtte 3Dc via patch 1,3 - men nu er Crytek desværre ikke alt andet end imponerende hurtige til at få udviklet ny patch til Far Cry... Dvs. følgende spil skulle understøtte 3Dc:
Far Cry v. 1.3 (Crytek)
Darksector (Digital Extremes)
Half-Life 2 (Valve)
Kommende spil fra Ritual
Kommende spil fra Pseudo Interactive
Pirates (Firaxis)
Serious Sam 2 (Croteam)
Tribes Vengeance (Irrational Games)
I Far Cry forventes 3Dc kun at medføre forøget billedrate, så det er uvist, i hvor mange spil 3Dc medfører forbedret billedkvalitet.
Jeg vil gerne have lidt seriøse forslag til en opgradering.
Lige nu har jeg et system der bl.a. indeholder følgende komponenter:
P4 2.6Ghz, 2x512MB PC3200, ASUS ATI 9600XT
Jeg føler at der er lidt problemer på grafikkort-delen. Dette understreges af at mit kort ikke engang er med i testen!!
Så hvad skal man så gøre??
Mit budget ligger omkring de 3-4000 kr. Så skal jeg både opgraderer CPU,bundkort og til et midtrange-grafikkort - eller skal jeg satse på et stærkt grafikkort ala x800 PRO ?????
Hvor er penge bedst spenderet?
Jeg hygger mig mest med Ghost Recon - og ser frem til Ghost Recon II som værende det primære spil jeg vil underholdes med. Ellers er det UT og til tider et bilspil.
Nogle gode forslag til den optimale udnyttelse af budgettet?
Med de stærkeste grafikkort kan du ikke udnytte meget mere cpu kraft alligevel. Og inden I brokker jer, så lad mig lige forklare den påstand: Jeg skriver ud fra at de fleste spiller i 1024 eller 1280 opløsning grundet begrænsninger i deres skærme. Den gennemsnitlige CRT skærm flimrer for meget i 1600*1200 og selv blandt de dyrere 19" LCD skærme er 1280 native resolution. Og så længe du ikke går højere end 1280, så viser de fleste benchmarks jo tydeligt at du ikke vil mærke den store forskel med en større cpu.
Personligt ryger mine spareskillinger på MSI's 6800 GT kort når det engang kommer på lager. Der har godt nok være en del snak om Galaxy's GT model her på siden, men ifølge forskellige forums er samlekvaliteten af det kort ALT for ringe. Mange har snakket om defekte eller dårligt monterede kølere hvor man kunne se luft mellem GPU og køler. Og når jeg betaler 3.500+ kr. for et grafikkort så forventer jeg at det virker direkte ud af boksen uden at jeg skal modde køleren eller lign.
Anders skrev Tuesday den 05 October 2004 kl. 20:08: [ svar | nyeste ]
Jeg var godt nok lige ved at bestille det Galaxy-kort, men nu tøver jeg da en kende.
Gandalf skrev Tuesday den 05 October 2004 kl. 10:28: [ svar | nyeste ]
Med andre ord: Hvis du ikke har et støjsvagt system i forvejen, vil du stort set heller ikke kunne høre om dit grafikkort larmer særlig meget. Men forskel vil der selvfølgelig alligevel være, så hvis du absolut vil have det støjsvagt, så køb HIS IceQ II X800Pro, hvis du vil have det hurtigste, så køb et 6800GT kort.
Gandalf, nu har du haft dit POV Geforce 6800GT i et stykke tid efterhånden, og du har ikke sat en NV5 Silincer på, så vidt jeg husker. Det betyder vel, at du kan leve med støjen ved fuld load? Er der er andre dele i din PC, der støjer? PSU, Cpu-køler, kabinetblæsere?
Har du prøvet at overclocke kortet, og i givet fald til hvilke hastigheder?
Kort sagt, hvis du skal gøre status, er du så fuldt ud tilfreds med dit køb?
Gandalf skrev Wednesday den 06 October 2004 kl. 09:04: [ svar | nyeste ]
Nej jeg sagde at jeg overvejede at sætte en silencer på... Men kan faktisk godt være, at jeg gør det, fordi den larmer faktisk lidt mere end hvad jeg egentlig accepterer. Men disse ting kan også være medhjælpende til, at den larmer lidt mere og derfor venter jeg lige og ser:
1. Nu står min computer også i en temmelig uheldig position ift. til mig, dvs. lyden bliver tilbagekastet op af en skråvæg.
2. Det er meget langt tid siden, jeg har renset min computer og dvs. alle blæsere for støv.
3. Jeg tror der er en enkelt blæser på mit Abit IC-7 Max3 bundkort der sidder lidt skævt eller løst. Derfor kan den nogengange komme op og larme RET meget. Men det fikser jeg nok snart når jeg alligevel renser computeren.
Men udover lidt larm har jeg været meget tilfreds med selve ydelsen af kortet, det er klart en bemærkelsesværdig forskel fra mit gamle 9800 Pro. Dvs. jeg ville ikke kunne gå tilbage til 9800 Pro nu, hvor jeg har vænnet mig til 6800GT-niveau ydelse :)
6800GT's støj har overhovedet ikke generet mig ved full load. Fordi, hvis den er på full load kan vi også antage at jeg kører et spil, og hvis jeg kører et spil, kan vi også antage, at jeg kører det for fuld musik med mine 7.1 højtalere. Så det er faktisk idle støjen der er lidt meget.
Da jeg i sin tid købte computer, sidste oktober, ville jeg gerne have den nogenlunde støjsvag. Jeg købte derfor en Nexus NX4000 PSU (400W m. 15A cont. og 18A peak), men dengang kendte jeg ikke til vigtigheden af en kraftig strømforsyning. Til gengæld er den meget støjsvag.
Kabinetblæserne er meget, meget støjsvage. De er af mærket Papst. Jeg har to; den ene, som er en 12dBA blæser, der suger luft ind foran, og den anden, som er en 20dBA blæser, der blæser luften ud bagtil. På den måde har jeg et meget godt og støjsvagt 'air-flow' i kabinettet.
Den CPU-køler, der fulgte med processoren, larmede simpelthen mere end et jetfly under nogen form for belastning. Derfor købte jeg en anden, der er ca. ligeså effektiv, men bare larmer mindre. Stadig ville jeg have ønsket, at jeg havde købt en endnu mere støjsvag køler, men jeg har også lært en hel del siden dengang :)
Men som sagt er min computer ikke særlig støjsvag lige nu, selvom jeg faktisk mente at have købt nogenlunde støjsvage komponenter dengang. Men jeg mener nu ikke, at det er 6800GT kortet der bærer skylden alene. Når jeg lige får fikset den lidt skæve/løse blæser på bundkortet,får renset hele computeren for støj og får flyttet computeren til en bedre position, så kan jeg da lige skrive tilbage her igen.
Mht. OC, har jeg eksperimenteret lidt, men er nu tilbage på stockspeeds. Jeg mener, at kunne få den stabil på omkring 410/1200, men jeg vurderede vist nok, at den ekstra ydelsen ikke var OC værd (mener at jeg fik 2½ FPS mere i gennemsnit i Far Cry). For det første HVIS der skulle ske noget og får det andet, er det godt at kunne sige "den har ikke været OC'et", når jeg engang skal sælge det.. Men det kan godt være, at jeg ændrer standpunkt på et senere tidspunkt =)
Det hele taget i betrakning, er jeg meget godt tilfreds med mit køb. Min computer larmer dog som sagt en anelse mere end jeg vil tillade, men jeg ved som sagt ikke, om det er 6800GT kortets skyld eller om det skyldes de mange andre faktorer jeg har været inde på. Så jeg vil altså vente med at bedømme min tilfredshed med købet af selve kortet, til jeg har renset, fikset og flyttet computer. Så nu må vi se...
Søren skrev Wednesday den 06 October 2004 kl. 13:18: [ svar | nyeste ]
Ok. Selv tror jeg (efter længere overvejelser) at jeg venter til His iceQ2 X800XT dukker op. Min tålmådigheder rækker til et godt stykke ind i januar, tror jeg.
Mit Radeon 9800 Pro må klare arbejdet et stykke tid endnu. Og de næste par måneder ser det heller ikke ud til, at der udkommer ret mange spil, som har min interesse. Faktisk kun HL2 (HVIS det kommmer), som jo sandsynligvis vil kunne afvikles glimrende med Radeon 9700- og 9800-serien.
Gandalf skrev Wednesday den 06 October 2004 kl. 15:32: [ svar | nyeste ]
Jeg vil da lige sige, at POV 6800GT kortet ikke larmer mere end mit gamle 9800 Pro kort, så du vil ikke kunne høre forskel tror jeg, men du vil heller ikke opnå bedre støjniveau...
Søren EG skrev Wednesday den 06 October 2004 kl. 17:55: [ svar | nyeste ]
Jo, jeg tror nu nok, jeg vil kunne høre en forskel, thi det er en IceQ-udgave, der sidder i maskinen. Når blæseren er sat til low, kan jeg slet ikke høre den. Men nu har jeg overclocket kortet en del, så den kører konstant på high for tiden. Støjeniveauet er dog stadig lavt, ikke noget der kan gøre en kat fortræd.
Atreides skrev Wednesday den 06 October 2004 kl. 16:33: [ svar | nyeste ]
HJÆÆLP
Hej mit GeForce TI4200 brændte ned. Og jeg skal til at bruge omkring 1000-1500 penge på et nyt kort. Hvilket kort skal jeg købe, der er en million forskellige? (jeg har ik så meget forstand på hardwere men jeg sparker røv i DC)
bdhfd skrev Wednesday den 06 October 2004 kl. 16:56: [ svar | nyeste ]
Er der ikke stadig garanti på dit TI4200?
Kiwi skrev Wednesday den 06 October 2004 kl. 18:03: [ svar | nyeste ]
Mht. til TR AOD. Faktisk er det et NTWIMTBP spil (Nvidia The Way bla. bla.), så Nvidia burde have alle fordelene der. Ihvertfald betyder dette at spillet ikke skulle have specielle fordele på ATI kort. Grunden til at det er meget brugt i benchmarks er at det er det først og hidtil eneste spil der bruger mange PS2.0 effekter, selv Far Cry begrænser sig mest til 1.1 og 1.4.
Mht. Doom 3 er det efter min mening ikke et godt spil at bruge i benchmarks. Der er efterhånden bred enighed om at den store forskel på ydelsen skyldes to ting: generelle Nvidia optimeringer som stammer fra Q3 engine (som D3 engine er bygget over) og shader replacement, dvs. Nvidia erstatter avancerede shadere med nogle mere ukomplicerede hvor det ikke kan ses. Personligt har jeg intet imod dette, højere ydelse og samme kvalitet er altid velkomment. Men da det ikke er nogen hurtig process, vil nvidia højst sandsynligt ikke gøre dette på andre spil. Dvs. at ydelsen i Doom 3 højst sandsynligt ikke vil have meget tilfælles med andre spil baseret på samme engine, med mindre Nvidia igen går spillet igennem og ændrer shadere... Hvis man er skeptisk kan folk downloade en ældre driver til deres FX kort og så prøve D3, man taber helt op til 50% i ydelse.... Dette taget i betragtning vil jeg betegne det som bondefangeri hvis man vælger kort på basis af ydelse i D3....
Btw. det er efter min mening meget interessant at de shader effekter vi ser i 3Dmark05 alle kan laves i single pass, og stadig holde det indenfor SM2.0's max instruktions længde. Det passer også fint med at HL2 kan skulle benytte 2/3 del af SM2.0's max længde og stadig lave alt i singlepass. I teorien skulle det betyde at pengene til SM2.0b og SM3.0 er smidt ud af vinduet.... Hvorfor Far Cry vinder på SM2.0b og SM3.0 har nok noget at gøre med det mest er programmeret til PS1.4 hardware, dvs. mange ting laves i multipass for at kunne passe i de gamle shader modeller.... Jeg vil så dertil indrømme jeg ikke har 100% tjek på det med shader modeller da jeg ikke er programmør, men hvis de effekter man ser i 3Dmark05 kan laves i singlepass skulle der ikke blive brug for multipass eller en shader model over 2.0 foreløbig....
Gandalf skrev Wednesday den 06 October 2004 kl. 18:15: [ svar | nyeste ]
Jeg mener bestemt at have hørt Carmack udtale sig om, at det var en helt ny engine, han skrev op fra bunden, da han påbegyndte arbejdet på Doom3 motoren.
Jeg har slet ikke selv hørt om disse "Shader Replacements", men hvis det er rigtigt, tror jeg stadig at NV40 har fordel i Doom3, da Carmack selv har anbefalet og valgt den som foretrukket grafikkort i Doom3 udviklingen, og det tror jeg ikke har noget som helst med shader replacements at gøre..
Mht. SM2.0 vs. SM3.0, så kan det da lige nævnes at SM3.0 ikke BARE handler om, at den kan udregne ting i mindre passes, den har også mange andre fordele.
Til sidst vil jeg gerne sige, at jeg synes Doom3 benchmarks er yderst relavent, da mange spil i fremtiden vil være baseret på denne motor. Nvidia designede deres grafikkort-arkitektur efter dette ene spil, altså må Doom3 have stor betydning når grafikkort-designeren laver design efter et spil og ikke omvendt.
Læste også et sted, at både ATI og Nvidia har spurgt Carmack om, hvad han ser der er brug for i den næste generation, nu hvor vi har fået 100% (eller måske 99%) dynamiske skygger på banen.
Så det kan godt være, at Doom3 ikke repræsentere alle spil i fremtiden, men den vil sandsynligvis repræsentere mange gode spil i fremtiden, bla. Return to Castle Wolfenstein 2, Call of Duty 2 og Quake 4.
Jeg er nu ret sikker på, at imens resten af id-teamet færdiggjorde "Quake III: Team Arena" så var "JC" allerede igang - med basis i den oprindelige kode fra "Q3", at udvikle "D-III", måske læsere fra den gang kan verificere denne påstand? :-) Da jeg ikke ligger inde med fakta!
SimTex skrev Wednesday den 13 October 2004 kl. 22:54: [ svar | nyeste ]
Tror ikke der er ret mange spil udviklere der skriver alle deres spil helt fra bunden, man bygger selvfølgelig altid videre på de erfaringer samt kodestykker som har vist sig at være gode. Dermed ikke sagt at D3-engine er en overbygning på Q3, for det er den ikke, men den viden Carmack har tilegenet sig under udviklen af Q3 har han selvfølgelig benyttet ved D3-projektet.
Kiwi skrev Thursday den 07 October 2004 kl. 09:36: [ svar | nyeste ]
Mht. til shader replacements i Doom3 er der en fin opsummering nederst på denne side: http://www.3dcenter.de/artikel/2004/07-30_english.php , bla. Demirug fra B3D har medvirket til at finde frem til disse konklussioner. Jeg har fuld tillid til at han ved hvad han snakker om :-) Desuden er et godt bevis også, som allerede nævnt, at FX kort kører MEGET langsommere med ældre driver versioner. Dette tyder også kraftigt i retning af shader replacement. Ihvertfald er deres konklussion at ydelses forskellen ikke skyldes nVidia kortenes hardware mæssige konstruktion.
Hvis du tror at JC har anbefalet nVidia's serie, kun fordi han mener den er bedst er du på det gale spor... Vi har hørt anbefalinger af FX serien fra ID Software, og vi er vist allesammen enige om at den serie ikke er pengene værd. JC's grund til at anbefale nVidia er dem samme som GN's grund til at anbefale ATI, nemlig penge...
Gandalf hvilke andre fordele har SM3.0 da? Udover vituel displacement mapping er der intet nyt visuelt, og geometric instancing understøttes af samtlige ATI kort baseret på R300 og nyere. Branching ser ud til at sætte hastigheden ned med de nuværende instruktions længder. Hvis man kigger på 3Dmark05 ser det som sagt, ud til at selv meget avancerede effekter kan udføres i singlepass. Men jeg overvejer at lave en tråd på B3D om hvilke scener der evt. vil kræve mere end 96 instruktioner (96 er den grænse SM2.0 har). Men som sagt, Doom 3 skulle ikke overstige de 22 instruktioner pr. scene hvilket jo ikke ikke ligefrem er over meget....
Mht. til fremtidige spil baseret på Doom 3 engine. Det er jo netop derfor jeg mener at Doom 3 benchmarks ikke har nogen relevans.... Hvis nVidia har brugt shader replacement vil de tal vi ser i Doom 3, slet ikke have noget at gøre med andre spil. F.eks. jo lysere spillet er jo mindre shadere vil man kunne erstatte, da detaljer bliver tydeligere. Forresten hvor ved du fra at COD2 og RTCW 2 vil blive baseret på D3 engine? Jeg kan ihvertfald ikke forestille mig den ville være det optimale valg til COD 2, da den ikke virker optimal til udendørs miljøer. Det med at nVidia har designet deres nye kort for at det kunne spille D3 optimalt er også et rygte, du tror da ikke at en ledende grafikkorts fabrikant ville designe deres kort til et enkelt spil/ engine? Specielt ikke en OpenGL engine da det er meget få spil der er programmeret i OGL.
0x53589f3c.ronxx2.adsl-dhcp.tele.dk skrev Thursday den 07 October 2004 kl. 11:10: [ svar | nyeste ]
jajaja. og hvad så med det ny ATI R-500 kort der kommer det har jo aldt GeForce 6800 også har ik? det er jo også blevet soldt til XBOX-2.ATI har jo måtte indrømme at SM3.0 er fremtid.
Rune skrev Thursday den 07 October 2004 kl. 11:16: [ svar | nyeste ]
Ifølge The Inquirer vil ATi aldrig have en VPU, som maksimalt understøtter SM3.0:
"What we know of the R500 and NV50 is that they will be PS4.0 and DX(insert marketing term here) parts. ATI will never have a PS3.0 part."
Kilde: http://www.theinquirer.net/?article=18029
Men det må tiden vise.
Kiwi skrev Thursday den 07 October 2004 kl. 11:42: [ svar | nyeste ]
Der er ingen tvivl om at der er en fremtid for SM3.0 og højere, men Doom 3 holder sig langt under PS2.0 minimums specs og HL2 ser ud til kun at udnytte det 2/3. Det jeg så prøver at komme frem med er at når først vi når op til at kunne udnytte SM3.0 er kortene simpelthen for langsomme. Derfor virker det til SM3.0 sagtens kunne have ventet til næste generation (Unreal 3 engine kommer sikkert til at kunne udnytte SM2.0b/ 3.0).
Thomas skrev Thursday den 07 October 2004 kl. 12:04: [ svar | nyeste ]
Det eneste der ærger mig lidt ved alle disse grafikkorttest er at det altid er på de nyeste cpu'er.. Jeg kunne godt tænke mig at se hvordan de forskellige kort kører på computer der ligner min egen lidt mere. Og da jeg pt. sidder med en athlon 1200 Mhz og et geforce 3 ti 200 og jeg må sige at spil som far cry og doom 3 ikke lige kører optimalt. Men jeg kan ikke finde nogle steder hvor jeg kan se hvad jeg får ud af at opgradere til et nyere grafikkort som enten 9800 pro eller 6800le osv..
Hvis der er nogle der ved noget om det eller har links til sider der har lavet sådan en test vil jeg meget gerne se det.
Ra skrev Thursday den 07 October 2004 kl. 12:18: [ svar | nyeste ]
Enkelte test-sites prøver nu og da grafikkort på en lidt ældre platform - eksempeltvis en Pentium4-2,4GHz, men et setup så bedaget som dit har jeg ikke set brugt til test!
Hvis man vil bruge 2.000kr. på et nyere grafikkort kan man vel også ofre de 6-700+ kr. for et nyt SocketA-system, der kan trække de nye spil...
Rune skrev Thursday den 07 October 2004 kl. 12:59: [ svar | nyeste ]
Det ville også kunne kritiseres i højeste grad, hvis enkelte test-sites anvendte meget langsom cpu til test af aktuelle grafikkort. I dette tilfælde ville du højst sandsynligt opleve, at mange grafikkort blev cpu-begrænsede, og derved er der ikke tale om grafikkort-test, men derimod cpu-test (idet resultaterne kun afspejler cpu'ens maksimale ydelse). Og når du engang skiftede din cpu ud, så ville du måske ærgre dig meget over, at du baserede dit grafikkort-indkøb på cpu-begrænsede resultater. En grafikkort-test skal afspejle reelle forskelle på grafikkort, og dette lader sig kun gøre, såfremt intet resultat er cpu-begrænset - derimod skal diverse grafikkort udgøre flaskehalse i alle test (dvs. grafikkortene må ikke kunne klare at rendere alle de billeder, som cpu'en kan generere). Derfor ser du generelt grafikkort-test i høje opløsninger med markedets hurtigste cpu'er (for at øge sandsynligheden for, at grafikkortene ikke kan følge med cpu'en), mens test af cpu, bundkort og ram er lige modsat (her skal opløsningen være så lav, at cpu'en ikke kan følge med grafikkortet).
Thomas skrev Thursday den 07 October 2004 kl. 12:46: [ svar | nyeste ]
Men det var nu lige så meget hvis jeg nu kan nøjes med en grafikkort opgradering så er jeg fri for nyt bundkort og cpu og evt. ram og alt det arbejde med at samle pc'en..
Ra skrev Thursday den 07 October 2004 kl. 13:04: [ svar | nyeste ]
Jeg vil anbefale dig at læse denne test, særligt f.eks. side 24:
Den viser, at en AthlonXP2400+ typisk giver ca. dobbelt så høj ydelse som din Athlon1,2GHz når begge bruger et Radeon9700Pro. Du kan efter min mening ikke spare en systemopgradering væk! Det vil være spild af penge at sætte et dyrt grafikkort i dén gamle spand...
Thomas skrev Thursday den 07 October 2004 kl. 13:05: [ svar | nyeste ]
Men det jeg efterlyser er test hvor jeg kan se hvad ville jeg, som sidder med en 1200 mhz cpu, få ud af at invistere i et nyt grafikkort, jeg er godt klar over at det ikke vil vise de forskellige grafikkorts sande ydeevne, men det vil vise om jeg vil få noget ud af en opgradering eller om min cpu er blevet så gammel at det ikke hjælper noget og derved vil en investering til f.eks 2000kr for et nyt geforce 6800LE grafikkort være spildte penge.
Så det er ikke en test der viser hvilket grafikkort som er det bedste jeg savner, men et der viser hvilket grafikkort giver mest for pengene i forhold til nye spil som far cry, half life 2 og doom 3 på min gamle 1200 mhz pc'er.
Thomas skrev Thursday den 07 October 2004 kl. 13:15: [ svar | nyeste ]
Tak for linket Ra, ja jeg kan godt se at det giver mere at opgradere det hele, grunden til at jeg sørger efter sådan nogle test er også for at se hvad der er bedst at opgradere lige nu. Grafikkort eller cpu, bundkort og ram... Det er fordi jeg vil dele det lidt ud så hvis jeg nu kan opgradere grafikkort nu og køre doom 3, far cry og half life 2 flydende i 1024 x 768 lige nu, og så engang næste år bliver det ny cpu, bundkort og ram..
Ra skrev Thursday den 07 October 2004 kl. 14:06: [ svar | nyeste ]
Glem alt om dé spil "flydende" uanset opløsning med dén CPU!
Gandalf skrev Thursday den 07 October 2004 kl. 19:31: [ svar | nyeste ]
Kiwi:
John Carmack skiftede skam også fra Nvidia's kort til ATI's 9800 Pro på et tidspunkt i forløbet og kaldte det hans foretrukkende grafikkort - altså indikerer det, at han bare har valgt det kort, der nu har kunne køre hans spil bedst/hurtigst til hver en tid. Og så er jeg 100% sikker på, at Nvidia flere gange har udtalt både i officielle sammenhænge og i interviews, at deres NV40 var bygget/designet til at spille Doom3. Ja, det er rigtigt at vi hørte anbefaleringer fra ID til Nvidia's GeforceFX serie, men da 9800 Pro kortet kom på banen, skiftede han selv over til det. Læg mærke til, at jeg nu snakker om NV40 serien, ikke de gamle NV3X kort. Geforce 6800 kortene har simpelthen vist sig meget stærkere i Doom3, ikke kun med 5-15 FPS på gennemsnit, men næsten mere vigtigt også omkring 10 FPS i Minimum FPS, som jeg synes er mindst ligeså vigtigt som den gennemsnitlige, for at få en "stabil oplevelse".
RtCW2 er jeg næsten helt sikker på bruger Doom 3's engine. Det var Hollenshead, der kom til at tale over sig i et videointerview og afslørede RtCW2 og at det ville bruge Doom3's engine. CoD2 er allerede blevet officielt annonceret og der har også gået stærke rygter om, at det vil bruge Doom3's engine. Dette er især sandsynligt, da udvikleren har været en af de allerbedste, til at presse Quake 3's engine til det aller yderste, som man kan se i CoD: United Offensive. Hvis vi ser tilbage i historien, så er ID's grafikmotorer også nogle de mest licenserede, hvis ikke DE mest licenserede. Derfor finder jeg det også meget sandsynligt, at vi vil komme til at se mange flere spil baseret på Doom3's motor.
Lige som en sidste kommentar i denne sammenhæng, vil jeg da jeg nævne, at bare fordi, at Doom3 ikke byder på større udendørsarealer, betyder det BESTEMT IKKE at dens engine ikke er i stand til det. Se bare hvad der blev gjort med Quake3's motor (MoH:AA, CoD, SoF2 osv..) og Doom3's motor skulle jo være endnu mere fleksibel og endnu mere kapabel en Quake3 motoren. At sige, at Doom3's motor ikke er i stand til at rendere større udendørsdørsarealer mener jeg er direkte forkert. Jeg tror endda også, at der er MANGE udviklere der er udemærket i stand til at gøre det..
Jeg har aldrig sagt noget om SM3.0 og slet ikke i sammenhæng med Doom3. SM3.0 var da slet ikke det, der gjorte at jeg købte et Geforce 6800GT kort, det var nærmere den overordnede performance og så Doom3's performance der gjorte udslaget. SM3.0 ser jeg bare som en ekstra fordel, der kan vise sig at være mere eller mindre brugbar i købet af de kommende måneder/år. Men uanset hvad, kan det KUN være en fordel at have SM3.0. Jeg tvivler seriøst også på, at Nvidia ville have brugt mellem 30-60 millioner ekstra transistorer på det, hvis det virkelig ikke var noget. Men som sagt, er det ikke noget jeg tænker på mig om endnu...
Jeg holder fortsat fast i, at Doom3 benchmarks er af stor betydning, i hvert fald meget større end det du gør det til. At NV40's gode performance i Doom3 KUN skyldes driverbrug, og ikke har noget med hardware at gøre, er ren spekulation. Derimod kan jeg let overbevises om NV3X's uduelighed i alle sammenhænge; R300 core'en var simpelthen overlegen, det er der da lidt tvivl om, hvilket også giver meget god mening, når man tænker på at Carmack skiftede platform til 9800 Pro under udviklings-forløbet.
Men jeg ser som sagt Doom3's benchmarks som vigtige; jeg har aldrig sagt noget om, at de repræsenterede den generelle tendens i next-gen spillene, der vil X800XT PE muligvis altid have en lille bitte fordel, men i Doom3 tror jeg helt bestemt at Nvidia vil holde tronen. Især når man tænker på, at Ultra Shadow teknologien ikke engang er blevet inkorporeret i spillet endnu, men at det kommer i en senere patch. Quake4, RtWC2, CoD2 er alle spil, som kan vise sig at blive ret gode og jeg synes faktisk, hvis jeg skal være helt ærlig, at kvaliteten generelt har været temmelig stor i de Quake3-baserede spil, der er blevet lavet, i modsætning til at horde, den grå masse af DirectX mainstream spil der er blevet spyttet ud. Men nu må vi jo se SM3.0 vigtighed, omfanget af brugen af Doom3 motoren og selvfølgelig også vigtigheden af 3Dc.. Men jeg tror i hvert fald ikke at hverken ATI eller Nvidia har tabt stort i denne generation, ligesom jeg ikke tror at JC kan hyres som en anden billig ludder af et firma til at lyve om hans foretrukkende grafikkort i Doom3 :)
Den mand har sgu nok penge og det virker som om, at han som en af de få rent faktisk holder af hele game community'et, ligesom få andre som f.eks. Valve..
Hej jeg undrer over at købe Radeon 9600 Pro :) Mit spørgsmål: Kan dette kort gøre at jeg kan spille Battlefield vietnam på 800x600 16 bit uden at det begynder at lagge???? og at spille morrowind i trueform på 800x600 eller kansker 1024x768 uden at lagge?????? Svar mig på dette og jeg kunne kysse jer :D
Ra skrev Thursday den 07 October 2004 kl. 22:08: [ svar | nyeste ]
jeg kigger på Radeon 9600 pro som koster 1495 kr og jeg så på denne side at hvis man skulle have trueform i morrowind så skulle man have geforce 2-4 ti kan så dette kort Radeon 9600 pro ikke klare det samme???????
Ra skrev Thursday den 07 October 2004 kl. 22:30: [ svar | nyeste ]
svar først på det øvre og så dette. Jeg har et Extreme graphics Grafikkort er Radeon 9600 pro bedre en extreme???????????????
Rune skrev Friday den 08 October 2004 kl. 00:04: [ svar | nyeste ]
Ja; Radeon 9600 Pro vil kunne klare mange spil i 1024x768, heriblandt Morrowind med Truform. Har du flere spørgsmål, så skriv dem venligst i vores forum.
Kiwi skrev Friday den 08 October 2004 kl. 09:47: [ svar | nyeste ]
Mht. JC's "ubestikkelighed" er der bla. denne kommentar: http://www.insidemacgames.com/news/story.php?ArticleID=6978 og denne: http://www.findarticles.com/p/articles/mi_zdcgw/is_200311/ai_ziff113430 , allerede på daværende tidspunkt var det klart at NV30 var R300 underlegen. Specielt for en på JC's tekniske niveau. Lige en helt ny en: http://www.megagames.com/news/html/pc/idrecommendsnvidiafordoom3.shtml hvor selv NV30 kort får "recommended for Doom 3" klistermærker af ID. Tag også de tidlige benchmarks hvor FX kort kørte med en speciel path som gav mere hastighed: http://graphics.tomshardware.com/graphic/20030512/geforce_fx_5900-11.html , hvorfor inkludere denne path hvis ikke JC blev betalt for det af nVidia? ID har, efter hvad jeg ved, aldrig haft et R300 baseret kort siddende i deres maskiner. De brugte en prototype af 9700pro til en tidlig præsentation af Doom3, men som utallige nVidia fans bagefter påpegede var det fordi FX serien endnu ikke var klar. Hele vejen gennem udviklings forløbet har ID anbefalet nVidia, inklusive deres mindre gode NV30 kort. Tyder det på en ubestikkelig fyr som ALDRIG ville optimere for meget til et mærke?
Det er IKKE ren spekulation at forspringet i Doom 3 til 6800 serien skyldes shader optimeringer, som sagt betragter de fleste spil programmører det som den mest plausible forklaring. Hvad skulle det ellers skyldes? Hvis du læste den artikel jeg linkede til først går de igennem samtlige konstruktions forskelle de kan komme på, og de kan stadig ikke finde ud af hvorfor der er den forskel. Et par måneder efter kommer så updaten nederst, og som sagt er det almindeligt accepteret som den korrekte forklaring på ydelses forskellen. Det skal lige tilføjes at Demirug (en af forfatterne), er nVidia mand. Selv i NV30 tiden har han holdt sig til dem. Ultra Shadow vil forresten ikke give ret meget, hverken nVidia eller JC virker ekstremt vilde med at bruge tid og kræfter på at få det supporteret, hvilket giver indtryk af at ydelses udbyttet ikke vil stå mål med anstrengelserne.
Ja, ID softwares engines er nok de mest licenserede i tidens løb. Men tiden er en helt anden nu. For det første er D3 engine i OGL, og DX er klart det mest brugte sprog i dag. Desuden er det med DX blevet en del nemmere at lave sin egen engine, og man ser en del spil som er bygget over nye uafhængige engines. Dvs. udvalget er efterhånden enormt. Desuden, min kritik af D3 engine har ikke noget at gøre med at nVidia er hurtigere. Hvis det med shader replacement passer, vil andre spil bygget over den engine ikke yde meget bedre på nVidia hardware end på ATI. Mht. udendørs miljøer, ja D3 kan sagtens lave den slags. Dog kan du forstille dig at når enginen ikke kan håndtere mere end 3-5 fjender i et lille lukket rum, kan der nemt blive problemer i udendørs miljøer. En normalt tænkende programmør vil vælge en engine der passer til hans behov, og i langt de fleste spil i dag tilbringer man hovedparten af tiden udendørs. F.eks. kan man få god udendørs ydelse og overlegne physic med Source, hvorfor så vælge D3? Mht. til rygter om spil engines, i lang tid sagde folk at Vampire Bloodlines ville være det første D3 spil. Men det viser sig nu at være bygget på Source....
Mht. til SM3.0 sagde du at det ikke kun var optimeringer, derfor min foregående kommentar. SM3.0 er bestemt ikke en ulempe, men det jeg hele tiden har prøvet at argumentere for er at det slet ikke er nødvendigt i øjeblikket. Btw. hvor i alverden får du 30-60 millioner transistorer fra? Det er kun nVidia's konstruktører der ved hvor mange transistorer det har kostet at komme SM3.0 på kernen. En anden ting er at nVidia har været ekstremt dygtige til at hype SM3.0 op. F.eks. snakker jeg med folk som ikke aner hvad det er, men de VIL have SM3.0 på deres næste kort.... Hver eneste gang der bliver snakket om X800 vs 6800, bliver SM3.0 kortet også hevet frem. Min pointe er at (for at sige det for 3 gang) at hvis de avancerede effekter i 3Dmark05 kan laves i single pass SM2.0 96 instruktioner (IKKE SM2.0b), bliver SM3.0 ikke nødvendigt foreløbig.
Kiwi: "For det første er D3 engine i OGL, og DX er klart det mest brugte sprog i dag."
Du mener vel D3D (Direct 3D) istedet for DX (Direct X).
GWiZ skrev Friday den 08 October 2004 kl. 13:49: [ svar | nyeste ]
Kiwi: Den specielle path til FXkortene, blev da implementeret fordi FX kortet var elendigt. Det ydede simpelthen ikke nok og derfor valgte JC at lave en speciel renderpath så det kunne være med. Det er noget lignende det som Valve gør i HL2, (altså forcer GFFX til at køre dx8)
Mht. til dine links vedr. JC's ubestikkelighed:
"I am using an NV30 in my primary work system now, largely so I can test more of the rendering paths on one system, and because I feel Nvidia still has somewhat better driver quality (ATI continues to improve, though). For a
typical consumer, I don't think the decision is at all clear cut at the moment."
og fra det andet link
"The only clear distinction where NVIDIA looks really bad is when you run a 32-bit floating-point code on it. Either card is going to work fine with all the games coming out now"
Jeg ved ikke hvordan du læser det, men umiddelbart ser han da ikke "købt" ud.
"Btw. hvor i alverden får du 30-60 millioner transistorer fra? Det er kun nVidia's konstruktører der ved hvor mange transistorer det har kostet at komme SM3.0 på kernen."
Nvidias præsident (yen yu ... noget i den dur) udtalte sig på et tidspunkt at det havde kostet dem 60mio transistorer at sætte SM3.0 PÅ NV40.
(men jo SM3.0 er relativt unødvændigt lige nu.)
Jeg forestiller mig at en af grundene til at spil og f.eks. 3dMark05 ikke anvender mere end 96 instruktioner er simpelthen fordi at de fleste folk ikke har NV40 (eller x800). Hvis Futuremark lavede en test der benyttede 150 instruktioner så ville folk flame den, og sige den var lavet for at cripple ati.
GWiZ skrev Friday den 08 October 2004 kl. 13:51: [ svar | nyeste ]
Iøvrigt får man da ikke den "overlegne fysik" hvis man licenserer source, da de bruger Havok fysik motoren, og den skal vel licenseres for sig?
Kiwi skrev Friday den 08 October 2004 kl. 15:32: [ svar | nyeste ]
Yeps Kristian, det er selvfølgelig D3D jeg mener. Det gik lidt hurtigt med at skrive :-)
GWIZ FX pathen er ikke med i det færdige Doom3, ATI og Nvidia kører på samme path (ARB2). Også dette tyder på at de har fundet en anden måde (shader replacement?) til at øge FX kortenes ydelse.
Hvis du eller andre vil tro på at JC ikke forfordeler et mærke frem for et andet, så er det op til dig. Selvfølgelig stiller han sig ikke op og siger: "køb nVidia". Det er jo langt smartere at skrive at kortene er nogenlunde lige, men JEG bruger nVidia.... (Desuden er det ikke kun i FPP32 FX serien har problemer). Hele vejen op gennem udviklings fasen af Doom3 har man fået af vide at FX serien ville være det bedste valg. Det hele handler om markedsføring, og de fleste er da også enige om at ID Software hører til i nVidia lejren og Valve i ATI lejren. Når man modtager en masse penge af det ene firma kan man i sagens natur ikke være upartisk. En anden lille ting, hvis du kigger på den sætning der kommer efter den ene linie du citerer: "For developers doing forward looking work, there is a different tradeoff -- the NV30 runs fragment programs much slower, but it has a huge maximum instruction count. I have bumped into program limits on the R300 already." Jeg vil mene han hentyder til at FX serien har SM2.0a (som har noget større max på antallet af instruktioner pr. pass), men hvordan i alverden passer det sammen med at Doom3 ikke skulle bruge mere end 22 instruktioner? Dvs. han sidder og siger han støder ind i grænser på ATI hardware, men det færdige spil udnytter ikke engang 1/3 af den grænse? JC er en kanon dygtig programmør, men helt seriøst... Med det tætte samarbejde han har med nVidia kan han ikke undgå at være "biased". Jeg mener det samme om Valve, de kan heller ikke undgå at støtte deres "sponsor". Måske ville FX kortene med mere målrettet optimering have kunnet yde bedre i Source? Men vi kan diskutere dette til dommedag, men ligegyldigt hvad du siger vil jeg altid være lidt mistroisk overfor hardwareproducent støttede programmørers udtalelser :-)
Sjovt nok er 160(R420) + 60(SM3.0) = 220(NV40). Så igen, det er nok mest et marketings spørgsmål som skal forklare hvorfor der sidder så mange transistore på kortet. Men ok, da der ikke er info andre steder og da det ikke står i deres white papers, må jeg tro på det indtil der kommer anden info.
Igen mht. antallet af instruktioner. Selv med de ekstreme effekter vi har set vil Unreal 3 "kun" bruge fra 50 til 200 pr. scene (efter Tim Sweeney), så jeg tror bestemt ikke at programmører holder sig til under 96 instruktioner for at undgå flame. Da 3Dmark05 er bygget som en game engine kan vi lige prøve at sammenligne... Vi ved at de ikke bruger over 96 instruktioner og se lige hvor hurtigt det kører... Selvfølgelig er der også en masse andre faktorer der har influrering på hastigheden, men man laver jo ikke et pixel shader intensivt spil uden at lade resten af grafikken følge med. Udfra det kan jeg ikke tro en U3 scene med over 100 instruktioner vil køre særlig godt, ligegyldigt hvad hardware du har.
Physics er altid en del af en licenseret engine.
Gandalf skrev Friday den 08 October 2004 kl. 22:40: [ svar | nyeste ]
ATI har som jeg har sagt tidligere også arbejdet tæt sammen med ID software og som jeg også sagde tidligere, var det jo faktisk dem, der leakede Doom3 alpha'en, hvilket tyder på, at de også har haft et tæt samarbejde med ID Software, ikke mindst fordi de også ved hvor vigtig Doom 3 ville blive. Desuden ved du da slet ikke noget om JC "har modtaget en masse penge fra det ene firma". Han anbefalede som sagt 9800 Pro over en periode indtil NV40 dukkede op. Og det er da også klart, at han favoriserer Nvidia fremfor ATI, når de simpelthen supporter hans favorit API, OpenGL, meget bedre end ATI.
Hvorfor bruge Doom3 fremfor Source? Fordi teknologien er mere avanceret, ikke mindst pga. den første ægte dynamiske skygger, som jeg tror er fremtiden, ligesom i Unreal 3". Fysiksystemer som i HL2 KAN inkorporeres, mens det er så godt som umuligt at lave 100% dynamiske skygger i Source. "Men tiden er en helt anden nu"? Kan slet ikke se der er hold i det. Doom 3 motoren er efter min opfattelse den med mest potentiale i dag og også den teknologiske mest avancerede. Èt spil er i dag offentliggjort på Source, og det er Vampires: Bloodline, mens TRE spil allerede er offentliggjort på Doom 3: Som sagt QuakeIV, RtCW2 og CoD2. Og jeg tør næsten væde min computer på, at der kommer flere Doom3-licenserede produkter end Source-baserede produkter...
Jeg tror også bare vi skal kalde diskussion lukket omkring hvorvidt 6800 kortenes store fordel kommer af hardware og software eller kun software. Men uanset hvad du vælger at tro, så er jeg helt overbevist om, at Nvidia fortsat vil have en større fordel i Doom3 baserede spil fremover, præcis som de havde med Quake3 baserede spil. Og hvor jeg får tallet på 60 millioner transistorer fra? Som GWiZ siger har Nvidia selv udtalt det og som bekræftelse har ATI også udtalt i et interview, at de vurderede at det ikke var værd at bruge ekstra 60 millioner transistorer på SM3.0 og at de prioriterede køligere og mindre strømforbrugende kort i denne generation. Og jeg synes det er meget logisk at tænke, at SM3.0 virkelig MÅ betyde noget, når det "fylder" 60 millioner transistorer og at Nvidia vurderede det til at være det værd.
Derudover kan jeg ikke helt følge din pointe mht. til 3Dmark05 og inskruktionssæt osv., fordi det er et fastlagt benchmark program, der kører PRÆCIST de samme scener; spil foregår altså en hel del anderledes. Jeg synes det er mere overbevisende, at Epic mener at SM3.0 er vigtigt i den næste generation, mere end at et benchmark program ikke udnytter det i dag. Du har ret i, at Nvidia har gejlet SM3.0 mere op end hvad godt er og det har umiddelbart ingen fordel her i starten, men jeg er overbevist om, at det nok skal vise sine sande styrker senere.
Gandalf skrev Friday den 08 October 2004 kl. 23:00: [ svar | nyeste ]
Ok, kommentaren omkring Doom3 engine vs. Source, samt hvad der bliver mest brugt ved ingen jo i virkeligheden noget om, og jeg gør nok rigtigst i bare at konstatere: Begge er fantastiske engines!! Der er i hvert fald ingen tvivl om at jeg glæder mig sindsygt til HL2 (har hele tiden glædet mig mere til HL2 end Doom3, selvom begge har været højt ønsket!) og at Source er en fed engine. Men god ferie allesammen, jeg tager afsted i en uge til Californien imorgen :D
Jesper skrev Saturday den 09 October 2004 kl. 17:02: [ svar | nyeste ]
Jeg skal til at købe ny computer, og da grafikkortet kan være en kompliceret handel i sig selv, så vil jeg spørge om det kan betale sig at købe et GF 6800 med 256 mb DDR ram fremfor et med 128! Har nemlig hørt, at de fleste spil ikke rigtig nyder godt af grafikkort med 256 md ram, da de ikke understøtter det... Men jeg ved ærlig talt ikke så meget om det, så vil lige høre om der er nogen her, der har erfaring med det!
Mvh. Jesper
Ps. Jeg har studeret testen godt igennem, men da jeg er rimelig noob på området, tør jeg ikke konkludere noget konkret!
Kiwi skrev Sunday den 10 October 2004 kl. 13:42: [ svar | nyeste ]
Jeg fatter slet ikke at vi skal have en diskussion om dette. Tror du virkelig at sådan noget som Humus tweaket ville have været nødvendigt hvis ATI og ID arbejdede tæt sammen? Tror du der ville sidde "Recommended for Doom 3" klistermærker på FX kort hvis ikke nVidia betalte for det? Smid lige et link til det med at 9800pro er blevet brugt i udviklings fasen, som sagt er det eneste i den retning jeg kender til at ID brugte et 9700pro til en E3 fremvisning.
Tjek lige resultater på denne søgning: http://www.google.dk/search?hl=da&q=source+engine+licenses&btnG=S%C3%B8g&meta= , det ser ikke ligefrem ud til at Source er upopulær vel? Hvis du foretager den samme søgning på Doom 3 sker der dette: http://www.google.dk/search?hl=da&q=doom+3+engine+licenses&btnG=S%C3%B8g&meta= . Det med at D3 engine er teknisk mest avanceret, er dog den største omgang varm luft jeg længe har hørt... Hvor i alverden har du fået den ide at Source ikke kan lave dynamiske skygger? HL2 bruger dynamiske skyger til ting der bevæger sig, og statiske skygger til ting der står stille. Det er rigtigt at D3's skygger har mange andre tekniske fordele, men igen... Forestil dig et kæmpe udendørs landskab hvor der skal renderes dynamiske på hver en lille ting. Vi taler jo om to vidt forskellige engines, med hver deres styrker og svagheder. Jeg er ikke programmør, så jeg kan ikke komme med en 100% velunderbygget mening om hvilken engine der har størst potentiale. Men seriøst, at basere en bedømmelse af D3 engine på et spil der næsten kun foregår i mørke lukkede rum er ikke en god ide.
3Dmark05 er baseret på en game engine og er derfor mere et spil end en benchmark. Selvom den kører "PRÆCIS" de samme scener hver gang, skal de stadig programmeres og udregnes som ved et normalt spil (det er bare computeren der "styrer"). Derfor er det reelt nok at betragte det som et realistisk bud på et "fremtidspsil". Det som kan gøre det ureelt er driver optimeringer som baseret på at den netop kører præcis det samme hver gang. Desuden ændrer det ikke på at både D3 og HL2 virker til at bruge under 96 instruktioner pr. pass, D3 skulle endda bruge langt under... Hvis U3 engine fra starten af er programmeret til at drage fordel af SM3.0 vil det helt sikkert give noget, men det er stadig en engine som ligger et godt stykke ude i fremtiden. De er i stadig i de tidlige stadier udviklings mæssigt. Hvornår vi ser de første spil er stadig uklart, men Bioware skulle være gået i gang :) Det er rigtigt at SM3.0 vil "vise sin sande styrke senere", men selv et 6800 Ultra Extreme vil få store problemer med 200 shader instruktioner i FPP32 pr. scene. Så jeg vil fastholde at nuværende kort ikke er hurtige nok til at udnytte SM3.0 (bortset fra GI). At tro SM3.0 vil komme til at betyde noget for 6800 serien (udover pr. mæssigt) bare fordi nVidia har valgt at komme det på er ret naivt, det er stadig programmører der bestemmer ...
God tur til staterne :-)
AXE skrev Monday den 11 October 2004 kl. 21:04: [ svar | nyeste ]
Hmmm Tsk Tsk at teste de kort i så skod en opløsning, det kan man jo ikke bruge til en flyvende fis nej man skal op i mindst 1600x1200x32 og så vil testen se noget anderledes ud. Mit bud vil blive ATI på toppen.
cpe.atm2-0-54342.0x50c7b42e.virnxx9.customer.tele.dk skrev Tuesday den 12 October 2004 kl. 09:05: [ svar | nyeste ]
Vil tro der går lidt tid endnu til den tilsvarende artikel kommer her på sitet, bare med 1600x1200x32, men er helt enig!
Ser ud til at nvidia har vendt det hele lidt rundt hvad angår hl2/source.. :)
Kiwi skrev Wednesday den 13 October 2004 kl. 09:03: [ svar | nyeste ]
Lars Allan den 1600x1200 test som Digit Life laver er uden AA/AF.
Jakob for det første er CS Source langt fra så belastende for grafikkortet som HL2 vil være og for det andet har FS brugt beta drivere til nVidia. Kig f.eks. på denne test fra X-bit labs: http://www.xbitlabs.com/articles/video/display/cs-source.html der kører de begge med beta drivere.... Fra begge sites er CPU begrænsningen tydelig, og når et spil er CPU begrænset betyder driver optimeringer meget, dvs. det eneste du kan udlede af FS's artikel er at nVidia har optimeret mere end ATI. Hvis du ikke er enig med den konklussion kan du f.eks. tjekke en tidligere benchmark her: http://www.firingsquad.com/hardware/counter_strike_source/page5.asp 2048x1536 4xAA 8xAF ville nok give et noget andet billede.... Desuden er der mange der har problemer med "shimmering" når de bruger 66.XX drivere, så nVidia's beta drivere er vist ikke helt i orden... Derimod er der ingen der har rapporteret fejl med 4.1X.
Min bekymring er om Radeon X800 er ved at være outdated, da det ikke understøtter Pixelshader ver. 3 (som GeForce 6800 gør). Flere spilproducenter er ved at lave opdateringer, så deres spil vil i en nær fremtid understøtter Pixelshader 3 (det er spil som: Far Cry, Doom3 og Painkiller. Rygtet siger at HL2 også vil understøtter Pixelshader 3).
Kiwi skrev Wednesday den 13 October 2004 kl. 17:52: [ svar | nyeste ]
Mads Petersen for det første understøtter X800 SM2.0b, så man skal ikke være nervøs for at disse kort behøver at køre multipass. SM2.0 kan "kun" klare 96 instruktioner pr. pass, SM2.0b 512 og SM3.0 kan klare lige så mange det skulle være.... Der er dog et men her, de spil vi ser i dag bruger ikke engang de 96 instruktioner. Grunden til at Far Cry vinder med SM2.0b og 3.0 ligger højst sandsynligt i GI (geometric instancing) og så at Far Cry mest er lavet med PS1.1/1.4 kode. Dvs. der skulle være mulighed for at samle flere af de oprindelige shadere i en SM2.0 shader.... Du kan evt. tjekke den artikel om SM2.0b vs 3.0 i Far Cry som ligger her på siden. Doom3 har slet ikke brug for en ny shader model, faktisk ville dette spil klare sig fint med PS1.4, da antallet af instruktioner pr. scene aldrig skulle overstige 22. Syntetiske benchmarks som 3Dmark05 og Shadermark kører heller ikke hurtigere i SM3.0, faktisk ser det ud til at 6800 kort vinder lidt hastighed ved at køre SM2.0b ;-) HL2 skulle efter rygterne ikke overstige de 96 instruktioner pr. scene som er SM2.0's grænse, faktisk skulle den ikke komme højere end de 66.... Men også i dette spil kan brugen af GI give en hastighedsforøgelse. Netop GI har nVidia slået meget på som en af de store fordele ved SM3.0, og det er også en kanon fed feature. Dog er denne feature tilgængelig på samtlige kort der er bygget på basis af R300, dvs. 9500, 9600, 9800, X300, X600 og X800. Så selv om den ikke officielt er en del af SM2.0x, understøtter X800 den fuldt ud. Faktisk ser det ud til at X800 håndterer extreme geometric load noget bedre end 6800. Til slut kan nævnes at den nye Unreal 3 engine (som vi nok kommer til at se om et år eller to) max vil bruge en instruktions længde på 200, stadig langt under de 512 som X800 kan klare men måske vil branching give noget ydelse til SM3.0 kort der. Som du kan se på de tidligere indlæg har vi allerede diskuteret dette en del, og jeg holder stadig fast på at SM3.0 er overkill. Der har ikke været nogle klare beviser på at SM3.0 vil kunne klare beregninger hurtigere end SM2.0, og som sagt er instruktions længden ikke noget problem.
Bjørn skrev Wednesday den 20 October 2004 kl. 22:57: [ svar | nyeste ]
Jeg er norsk, så hold ut mitt språk ;)
Jeg ser meg enig i det kiwi sier, at SM3.0 er overkill for dagens hardware, når GI (Ihvertfall i FarCry) kan kjøres på R42x hardware uten ytelsestap i forhold til tapet for NV4x.
Dynamic Branching kan også gjøres i en 2.0 shader faktisk, noe Humus har bevist. Så hvilke fordeler annet enn at SM3.0 kan kjøre flere instruksjoner pr clock enn SM2.0(b) er det som nVidia skriker om?
x1-6-00-0d-88-a3-de-a2.k225.webspeed.dk skrev Thursday den 14 October 2004 kl. 18:10: [ svar | nyeste ]
Jeg står her og skal købe et geforce 6800 fra Leadtek.. Min strømforsyning er på 300 watt. Er det nødvendigt med mere?
Rune skrev Thursday den 14 October 2004 kl. 18:44: [ svar | nyeste ]
Det burde virke fint, sålænge du holder dig fra 6800GT og 6800Ultra (i mange tilfælde vil 6800GT dog også virke fint med 300W PSU af god kvalitet).
cpe.atm2-0-54342.0x50c7b42e.virnxx9.customer.tele.dk skrev Thursday den 14 October 2004 kl. 19:58: [ svar | nyeste ]
Hvorfor bliver der kun testet i first- eller thirdperson-shooter spil? Hvad blev der af strategi og andre spil, som WH40k - Dawn Of War og Rollercoaster Tycoon 3 (ser ud til at være rimelige hardwarekrævende! Eller er der en grund til at undlade at teste spil i den genre!??
/BuGGy/
Rune skrev Thursday den 14 October 2004 kl. 22:30: [ svar | nyeste ]
Mange strategispil (med mange enheder) kræver i særlig grad cpukraft, og kan derfor være mindre gode til at teste grafikkort, men ellers tror jeg, at årsagen er, at mange favoriserer 3D-shootere over strategispil. - Måske også fordi 3D-shooterne er kendt for at være de første til at udnytte særligt avancerede grafiske egenskaber, mens strategispil generelt og traditionelt ikke er kendt for omfattende anvendelse af bump-mapping, pixel og vertex shadere mm.
x1-6-00-0d-88-a3-de-a2.k225.webspeed.dk skrev Friday den 15 October 2004 kl. 00:27: [ svar | nyeste ]
Ok, mange tak Rune... har det ellers noget at gøre med om man har mange blæsere til at køre i kabinettet? Eller har det intet med sagen at gøre?
Du skal bare have en strømforsyning der leverer minimum 15ampere på 12v linien så er du sikker på at GFX-kortet for strøm nok.
Ang det med Call of Duty og 256mb ram vs 128mb ram, den holder ikke. Jeg har to PCer og den ene med Radeon9800Pro 256mb og den anden med GF6800 128mb kort. På begge PCer (med næsten samme specs) køres Call of Duty i 1024x768 32bit 4xFSAA og 8xAF og indstillingerne er sat til det MAKSIMALE mht texture,environment og character detail. Spillet kører hurtigere på mit GF6800 128mb kort en på mit R9800Pro 256mb kort.
GF6800 128mb rykker til prisen, men jeg fatter ikke hvad de vil med GF6800 256mb kortene, da et GF6800GT 256mb kort kun koster 300kr mere ?
cpe.atm2-0-54342.0x50c7b42e.virnxx9.customer.tele.dk skrev Friday den 15 October 2004 kl. 11:44: [ svar | nyeste ]
Hvad går PainKiller ud på! Er det en slags forbedret udgave af Serious Sam?
Rune skrev Friday den 15 October 2004 kl. 12:54: [ svar | nyeste ]
Mafiadk skrev Thursday den 21 October 2004 kl. 10:12: [ svar | nyeste ]
Har lige været ind på iXBT's hjemmeside for at læse testen på russisk. Det er næsten ikke noget forskel. Får min GF6800 i morgen og glæder at se den i brug. Skulle gi* kun 2 tuse for en 14 dage gammel kort. :-)
x1-6-00-0d-88-a3-de-a2.k225.webspeed.dk skrev Saturday den 23 October 2004 kl. 15:24: [ svar | nyeste ]
Hvad gør jeg forkert? Jeg har sat mit Geforce 6800 fra leadtek i, strømforsyningen er på 300 watt, når jeg tænder computeren kører blæseren i grafikkortet, men på skærmen står der "no signal". Hvad går der galt?
Havde ellers lige glædet mig til at smadre mit gamle GeForce 5200 :P
Ra skrev Saturday den 23 October 2004 kl. 16:15: [ svar | nyeste ]
Spørgsmål der ikke er relevante for artiklen bedes stillet i Forum.
Brian skrev Wednesday den 24 November 2004 kl. 02:08: [ svar | nyeste ]
Ganske udemærket opsumering af en ordentlig stak grafikkort.
Den gir en hurtig og nem oversigt over om det kan svare sig at opgraderer og i så fald til hvad alt efter hvor neget mer ydelse man vil have og pengepungen selvfølig.
Lidt hjælp til jer der søger et billigt GeForce 6800LE Databutikken har det på lager i en Bulk udgave til 1614,-
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.