Test af stort antal grafikkort i skærmopløsning på 1280x1024 (november 2004)
af Webmaster Sunday den 07 November 2004 kl. 17:08 [ Grafikkort ] Det russiske site iXBT har atter testet et stort antal aktuelle grafikkort, og vi fokuserer i denne artikel på ydelse i en skærmopløsning på 1280x1024 pixels uden FSAA (kantudglatning) og ANI (anisotrofisk filtrering). Vi fokuserer i denne artikel på ydelse med GeForce 6800 (Ultra og GT), Radeon X800 (Pro, XT og XT Platinum Edition), GeForce 6600GT, Radeon X700XT, Radeon 9800 (Pro med 128MB og XT) og GeForceFX (5950 Ultra og 5900 XT).
Følgende hardware blev anvendt af iXBT:
AGP-system (vist med grøn farve nedenstående):
CPU: Athlon 64 3200+ (2,0 GHz)
BUNDKORT: K8T800-baseret bundkort fra Asus (K8V SE Deluxe)
RAM: 1GB PC3200
PCI-Express-system (vist med rød farve nedenstående):
CPU: Intel Pentium4 3600 MHz (225MHz x 16)
BUNDKORT: i925X-baseret fra Abit (AA8 DuraMAX)
RAM: 1GB DDR2 300MHz (="600" MHz)
Fælles:
STYRESYSTEM: WindowsXP Pro (SP2) med DX9.0c
Alle Nvidia grafikkort er testet med beta-driver Forceware 66.81, mens ATi grafikkort benyttede Beta-Catalyst 4.11.
Eftersom kun få grafikkort er testet på PCI Express systemet, og for ikke at introducere endnu en variabel (dvs. endnu et testsystem), så kommenteres udelukkende resultater fra Athlon 64 (disse resultater er angivet via en grøn linie i nedenstående resultater, mens P4 systemet med PCI Express x16 benytter rød farve). Fordi inklusion af testresultater fra både P4 og Athlon 64 gør diverse oversigter mht. testresultater meget omfattende, så har vi valgt at fjerne testresultater fra grafikkort, der er langsommere end GeForceFX 5900XT eller Radeon 9800 Pro, da langsommere grafikkort pricipielt er uinteressante i mange aktuelle og kommende spil (i høje opløsninger). Endvidere burde 6600GT og X700XT være flaskehalse i diverse testede spil, således at disse kan sammenlignes med AGP-grafikkort, selv om forskellige platforme benyttes (under alle omstændigheder kan 6600GT og X700XT sammenlignes indbyrdes).
Ønsker man at se resultater fra langsommere grafikkort eller fra 1024x768 (med og uden 4xFSAA og 8-16xANI) eller fra 1600x1200 (uden FSAA og ANI), så kan man i dette tilfælde finde den russiske originalartikel her:
Dvs. den originale artikel indeholder 32 billeder med testresultater fra forskellige skærmopløsninger, mens vi i denne artikel fokuserer på 7 forkortede billeder fra en bestemt skærmopløsning (idet resultater med low-end grafikkort er skåret fra på hvert inkluderet billede). Vi starter med Call of Duty:
Ved at sætte hurtigste udvalgte grafikkort til 100% kan andre grafikkort rangordnes i forhold til dette hurtigste grafikkort; som beskrevet før, så fokuserer vi kun på de grønne linier på ovenstående billede (Athlon 64, AGP8x, yderligere er grafikkort, der ikke anvender standardhastigheder, ikke medtaget):
Her vinder Nvidia 6800U og 6800GT over Radeon X800XT (PE), dog ser resultater fra disse grafikkort ud til at være cpu-begrænsede, hvorfor disse forskelle formodentlig skyldes driveroptimeringer. Radeon X800Pro må se sig slået stort af GeForce 6800. Bemærk, at Call of Duty er et af de få spil, hvor man får fuld valuta for 256MB ram på grafikkortet, og desværre ser det ikke ud til, at Digit-Life har testet med maksimale teksturindstillinger, eftersom der i resultaterne fra Digit-Life ikke er forskel på 128MB eller 256MB på grafikkortet; dvs. ovenstående resultater fra Call of Duty kan ikke anvendes til at vurdere reelle forskelle på grafikkort med 128MB eller 256MB ram. Vi fortsætter med Tomb Raider AOD:
Her vinder X800XT PE en stor sejr over 6800U, mens 6800 GT vinder over X800Pro. X700XT og GeForce 6600 GT klarer sig stort set ensartet, mens GeForceFX atter fremviser store problemer med DX9-ydelse. Vi fortsætter med resultater fra Unreal 2:
Resultater med X800XT (PE) og GeForce 6800 Ultra/GT er cpu-begrænsede, idet der reelt ikke er forskel på disse kort mht. ydelse. Endvidere var Radeon X800Pro og GeForce 6800 lige hurtige. 9800XT og 9800Pro vinder dog fortsat markante sejre over 5950U og 5900XT, mens Radeon X700XT og 6600GT er rimeligt jævnbyrdige. Lad os se, hvordan det går i Far Cry:
Det ser ud til, at sejren er delt i Far Cry v.1.1, hvor Shader Model 2.0B ikke er aktiveret på ATi grafikkort - dvs. denne test repræsenterer ikke ydelse i Far Cry v. 1.3:
X800XT (PE) og 6800U/GT yder ensartet, mens X800Pro vinder over 6800. Filmen knækker for X700XT, hvilket indikerer, at der er problemer med enten bundkort, grafikkort eller driverne. Vi fortsætter med resultater fra en meget tidlig version af Half-Life 2, hvor resultaterne ikke ser ud til at stemme med den aktuelle Video Stress Test:
Diverse grafikkort med 16 pixel pipelines yder nogenlunde ensartet, mens 6600GT og X700XT klarer sig særlig godt - hvilket kan indikerer, at disse PCIe-resultater er påvirkede af cpu'en og derfor ikke kan sammenlignes med AGP8x-resultater. Lad os se, hvorledes alt spænder af i Painkiller:
Her ses en minimalistisk sejr til X800 med 6800U/GT lige i hælene, og diverse high-end resultater er klart cpu-begrænsede, så hvad vi ser her, er udelukkende forskelle på driver-optimeringer. X700XT vinder over 6600GT og er lige så hurtig som 6800. Lad os slutte af med at se, hvorledes det går i Doom3:
Nvidia dominerer her med hård hånd og giver fortsat storsmæk til X800XT (PE) og X800Pro. X800XT PE yder dårligere end GeForce 6800, men koster ca. det dobbelte. X800Pro er langt bagefter GeForce 6800 og taber endda markant til 6600GT. GeForceFX 5950 Ultra taber formodentlig grundet Catalyst 4,11B til 9800XT, og tilsvarende gælder mht. 9800Pro og 5900XT.
KONKLUSION OG AFSLUTTENDE KOMMENTARER
Vi kan slutte af med at udregne gennemsnitlige resultater for de grafikkort, som vi har fokuseret på ovenstående:
Plads 2 er delt. Skulle disse resultater virke uoverskuelige, så er her en grafisk afbildning uden spredning:
1280x1024 uden FSAA og ANI er generelt intet problem for aktuelle grafikkort, som ofte er cpubegrænsede med disse indstillinger. Derfor ser vi kun små forskelle på high-end grafikkort med 16 pixel pipelines (GeForce 6800 Ultra/GT og Radeon X800XT (PE)). Ønsker man at anvende 1280x1024 uden FSAA og ANI, er GeForce 6800 således et af de bedste grafikkort mht. pris og ydelse.
port150.ds1-abs.adsl.cybercity.dk skrev Sunday den 07 November 2004 kl. 17:25: [ svar | nyeste ]
god test
cpe.atm2-0-54342.0x50c7b42e.virnxx9.customer.tele.dk skrev Sunday den 07 November 2004 kl. 17:29: [ svar | nyeste ]
Jeg står og skal opgr. til enten 6800 GT/Ultra eller X800xt. Så her er det jo vigtigt at se hvilket kort der klarer sig bedst, - med FSAA & ANI tilsluttet... Hvornår eller hvorfor bliver der ikke lavet test´s med høje opløsninger (1280x1024 - 1600x1200) samt FSAA & ANI tilsluttet???
Rune skrev Sunday den 07 November 2004 kl. 17:35: [ svar | nyeste ]
iXBT/Digit-Life tilbyder desværre kun resultater fra 1024x768 med 4xFSAA og 8-16xANI. Jeg kender ikke til andre månedlige opdateringer med et stort antal grafikkort inkl. nyeste drivere, så indtil videre må vi nok nøjes med aktuelle resultater - Tom's Hardware har dog tidligere testet også i 1600x1200 med 4xFSAA og 8xANI, men grundet nye drivere, så er resultaterne allerede mere eller mindre forældede:
Clintin skrev Sunday den 07 November 2004 kl. 17:32: [ svar | nyeste ]
det eneste der før har favoriseret x800xt er HL2, men selv i 1600x1200 er geforce foran, og med FSAA og ANI kommer selv de hurtigste kort under 60fps, så lige nu ved jeg ikke rigtigt hvad jeg skal spare op til. Dog kan det være at den endelige version af HL2 kan give et svar.
Men til den tid jeg har sparet de 3-4k op så kan det være at prisen er faldet på enten det ene eller det andet kort...
83.73.133.244.ip.tele2adsl.dk skrev Sunday den 07 November 2004 kl. 17:36: [ svar | nyeste ]
Hvis det blev tilsluttet vil 800XT og 800pro klare sig meget bedre og slå nivida, da de klare sig bedre med FsAA og ANI. Personligt vil jeg gå efter nvidia alligevel, da jeg ikke vil spille med FSAA osv. enabled, da jeg vil have det kører så godt som muligt, så hellere miste noget af grafikken.
Daffy skrev Sunday den 07 November 2004 kl. 18:35: [ svar | nyeste ]
Clintin > Til den tid? Du ved godt det er om 9 dage (d. 16)ik?
Satyr skrev Sunday den 07 November 2004 kl. 18:56: [ svar | nyeste ]
ATIs nye kommende kort skulle være klart i 1Q 2005, så jeg ville vente hvis jeg var jer. De nyeste kort har jo stortset altid en intro pris på en 4500 kr, mens at de falder langsomt i pris. Da jeg købte mit geforce 5900 ultra i august 2003, der var det state of the art og et isenkram til 4500 kr. Så kom 6800 men prisen på 5900 ultra faldt med blot et par hundrede. Jeg har lige været inde og tjekke nu, og det står til 3200 kr uden porto. Det er jo ikke fordi at det er et enormt fald i prisen. som sagt, var jeg jer så ville jeg vente til at nvidia og ati smed deres nye kort på gaden, og så måske købe et brugt 5900xt til brug i mellemtiden.
Jesper skrev Sunday den 07 November 2004 kl. 20:16: [ svar | nyeste ]
Hej
jeg overvejer at købe et GeForce 6800 GT eller et Radeon X800 PRO
jeg har en harddisk, et tv-tunerkort, en dvd brænder og et dvd drev.
så ville jeg lige spørge om et GeForce 6800 GT kan køre i computeren, når jeg kun har en 300 W strømforsyning.
Jeg har set masser af tests af Shuttle's mini pc'er, hvor der er testet med et 6800 GT kort. Det kørte uden problemer, og Shuttle's mini pc'er bruger en 220 Watt PSU.
port145.ds1-nae.adsl.cybercity.dk skrev Sunday den 07 November 2004 kl. 21:06: [ svar | nyeste ]
Det undrer mig at iXBT bliver ved med at teste lave opløsninger uden FSAA og ANI. Stort set alle high end resultaterne er jo ubrugelige, hvilket er en skam når de nu har muligheden for at teste alt det fede hardware.
Det er da på tide at de i det mindste erstatter 1024x768 med 2048x1536 og så rykker FSAA og ANI op i 1280x1024. Men hvem ved.... måske spiller russerne alligevel kun i SVGA. :-)
Salget af fladskærme forventes snart at overhale salget af CRT skærme (hvis ikke det allerede har gjort det). Og den typiske fladskærm kører enten i 1024 eller 1280 opløsning. Så det er bestemt ikke ubrugeligt at teste de opløsninger.
Hvilken maskine forventer du iøvrigt der kan køre Far Cry, Doom III eller Half Life 2 fornuftigt i 2048x1536? Bare fordi det kan lade sig gøre er det ikke altid hensigtsmessigt.
Mick skrev Tuesday den 09 November 2004 kl. 16:15: [ svar | nyeste ]
Resultatet i 1280x1024 uden AA og AF er ubrugelige IMO. Specielt da i HWT regi hvor man ikke "spilder tiden" med mellemklasse kort & resultater *G*.
Dernæst mener jeg og andre (dog naturligvis ikke alle) at TFT skærme stadig ikke er sagen hvis man vil game seriøst eller retouchere billeder (min CRT har -klart- renere farver end selv den bedste TFT jeg har set).
Argumentet med at man i 1280x1024 kan bruge AA og AF holder heller ikke selvom TFT skærmene bliver hurtige nok. Har man een gang set sine favoritspil i opløsninger på 1600x1200 ellere mere så virker 1280x1024 som Wolfenstein3D kontra Quake3 (okay... måske ikke helt, men jeg foretrækker IKKE at kunne se "prikker" når jeg spiller).
port158.ds1-vaer.adsl.cybercity.dk skrev Sunday den 07 November 2004 kl. 22:26: [ svar | nyeste ]
Ja er helt enig i at det kunne være sjovt at se en opløsning på 2048x1536 men faktum er imidlertid at det er de færeste der har en skærm der kan klare en sådan opløsning. De fleste er dog idag gået væk fra 1024x768, og bruger 1280x1024 eller 1600x1200.
Det bliver også spændende at se hvilken udvikling der kommer som følge af HDTV fordi en tvskærm med sådan en opløsning må være rimelig interressant at spille på.
Ja, det kunne særligt være interessant hvis man faktisk kunne købe TV med HD resolution som jo er 1080x1920. Selv Sonys KZ-42TS1 plasma har kun 1024x1024, så det varer nok meget længe før vi kan opleve anstændige opløsninger på TV skærme.
I det mindste skulle det da være muligt at få en god refresh rate på en plasma.
jesper skrev Sunday den 07 November 2004 kl. 22:36: [ svar | nyeste ]
Behøver man virklig en 550 W PSU er 400 W ikke nok, jeg vil alligevel ikke lave oc.
Rune skrev Sunday den 07 November 2004 kl. 22:41: [ svar | nyeste ]
350 watt er fint til 6800GT, mange gode 300 watt strømforsyninger vil også virke fint, medmindre du har en kraftig Prescott cpu.
gukker skrev Sunday den 07 November 2004 kl. 23:17: [ svar | nyeste ]
ja ærgeligt det er i den opløsning,med mit nye 800pro moddet til xt platinum,ville jeg aldrig drømme om at gå derned.spiller flatout demo nu i 1600*1200 6*aa 16*ani med minimum 45 fps..min pointe er bare at man skal sætte spillet til det allehøjste det kan og så stadig værer spilbart.. så kan du lave benchmark....:)
:D skrev Sunday den 07 November 2004 kl. 23:45: [ svar | nyeste ]
HVA SÅ MED CS :D ??
x1-6-00-08-0e-2f-81-41.k71.webspeed.dk skrev Sunday den 07 November 2004 kl. 23:57: [ svar | nyeste ]
Endnu en sejr til 6800GT hvis man kigger på pris/ydelse. Er der nogen der ved hvor man i øjeblikket kan købe en 6800GT der med 101% sikkerhed er på lager. Jeg har nemli opdaget at mange butikker på nettet SKRIVER at de har 6800GT på lager, men faktum er noget helt andet :(
SyZyGy^ skrev Monday den 08 November 2004 kl. 01:07: [ svar | nyeste ]
Det er jo ikke en sejer, det er blot et faktum at det jorde i lige præcis i de lave opløsninger. Som der er sagt før, hvis aa, og ani var slået til vilde x800pro og xt jo sparke meget mere røv, især hvis det var lavet i 1600*1200
Kiwi skrev Monday den 08 November 2004 kl. 09:15: [ svar | nyeste ]
Med den afsluttende kommentar fra Rune burde der ikke være så meget diskussion. Det eneste man kan se ved denne test er hvilken ydelse de forskelle kort har hvis din skærm ikke kan køre mere end 1280x1024 (og du ikke kan finde ud af at slå AA/AF til ;-)).
Jeg holder stadig på at D3 resultatet giver et ureelt billede af ydelsen fra nVidia's kort, grundet intensive spil specifikke driver optimeringer. Helt seriøst gutter.... Der er da ikke nogen af jer der tror på at 6800 med 12 pipes vil kunne slå X800XT i en "fair fight"?
Jo, på et tidspunkt var kodegrenen for nVidias FX serie en anden end for øvrige kort, men det er mig bekendt ikke længere tilfældet, og det er under ingen omstændigheder tilfældet for 6800 serien.
Mon ikke digit-life http://www.digit-life.com/articles2/doom3/ er nærmere en reel forklaring:
Such poor results of ATI and brilliant ones of NVIDIA are easy to explain. We all remember from the release of DOOM III Alpha (its leakage, actually) that the salt of the game is in active shadow usage implemented via the stencil buffer. NVIDIA has been assuring us since the times of GeForce FX that Z operations and stencil operations are accelerated twofold in comparison to pixel operations. So with its 16 pipelines 6800 Ultra processes 32 Z and stencil results at a cycle. This is not the case in ATI cards.
Then, you should not forget about UltraShadow, which optimizes the shadow processing operations of video cards based on NVIDIA chips (truncating unnecessary work in scene parts).
Derudover indikerer ATI's tilsvarende uimponerende ydelse i Call of Duty vel at ATI af en eller anden grund stadig ikke har bragt deres understøttelse af OpenGL op på niveau med DirectX.
/cl
Fede skrev Monday den 08 November 2004 kl. 09:29: [ svar | nyeste ]
Som altid en ganske udemærket artikel, men en feature jeg savner lidt er et skema med pris kontra ydelse. noget i retningen af "kr pr gennemsnitlig fps" eller noget :)
men det ser da ud til at jeg gjorde et udemærket køb med mit 6800 til 2000kr i fredags :)
Det forbliver målet at få et 6800GT i Systemet, eneste "missing link" som konfigurationen ser ud lige nu.....Og det bliver ikke lige denne md. Men det er jo rart at have noget at hige efter *GG*
Clintin skrev Monday den 08 November 2004 kl. 12:21: [ svar | nyeste ]
Til Daffy
Meningen med det jeg skrev var at jeg ikke havde pengene, og at der sikkert ville gå så lang tid før jeg kunne købe et kort at de ville nå at falde i pris i mellemtiden.
Anarchy skrev Monday den 08 November 2004 kl. 12:24: [ svar | nyeste ]
Hvis nogen skulle være interesserede så har mindstorm fået Gainward 6800 Ultra kort på lager:
Dejlig test. Til Satyr - Jeg er uenig med dig. Fra et investeringsmæssigt perspektiv, tror jeg at ATI vil vente med at lancere R520 serien til pc-platformen indtil xbox 2 er røget i handlen (ligesom med xbox og nvidia). Der er stadig kun meget få detaljer tilgængelige omkring den nye VPU, hvilket taler imod en frigivelse tidligt i første halvår af 2005. X800 serien er godt nok baseret på en gammel arkitektur, men er stadig med på beatet og har ikke haft særlig lang tid på markedet - jeg tror på at ATI vil forsøge at skumme fløden længst muligt. Jeg tror på at en lancering af R520 til andet end xbox 2, tidligst vil ske i 2Q 2005. Til den tid vil det nok også være mere realistisk at skifte til PCI Express. Derfor har jeg valgt at beholde mit tilpas hurtige system (P4 3.02, 1024 MB RAM, AGP) og kun skifte til et 128 MB 6800 GT til pt. omkring 2600,-, da jeg max. spiller i 1280x1024 (TFT). Det er klart en fed investering - alt kører flydende. Skifter igen når det ikke spiller max. Over and out. /Vladimir
Pederrs skrev Monday den 08 November 2004 kl. 15:32: [ svar | nyeste ]
hehe godt man så kan glæde sig over man har et POV 6800 Ultra :D :D
Med hensyn til performance... Jeg forholder mig til aktuel performance - teoretisk performance kan jeg ikke bruge til noget som helst. Om Doom 3 teoretisk vil kunne køre bedre på et ATI kort er mig derfor dybt uinteressant og jeg forstår ikke at det interesserer andre så meget, med mindre de har en dyb teknisk-arkitektonisk interesse. Jeg forholder mig til spilleglæde og hvis mit kort kan køre de nye spil uden problemer på et acceptabelt niveau, er jeg ligeglad med benchmarks mv.. Først når det begynder at køre dårligt, begynder jeg at interessere mig for benchmarks. Jeg vil nemlig gerne have 'bang for the buck' - og jeg ved at den fede fornemmelse er dyrt købt og kortvarig. Jeg synes derfor at religionskrigen bør ophøre og objektiviteten genindføres. Det er umodent og usagligt at tale 'would be' performance og at sige at ATI og nVidia opfører sig forskelligt - de opfører sig nemlig fuldstændig ens og det gør de fordi de gerne vil tjene penge. De snyder og optimerer hvor de kan uden at gå på kompromis med kvaliteten, og indgår aftaler med vigtige spilproducenter for at maksimere deres markedsandel. Så enkelt er det. /Vladimir
Clintin skrev Monday den 08 November 2004 kl. 16:28: [ svar | nyeste ]
Spørgsmål til Vladimir:
6800gt kort du har, er det det fra Asus
Vladimir skrev Tuesday den 09 November 2004 kl. 09:07: [ svar | nyeste ]
Kiwi skrev Monday den 08 November 2004 kl. 16:59: [ svar | nyeste ]
Efter en lang og yderst avanceret gennemgang af arkitektur forskelle på NV40 og R420 konkluderede 3Dcenter det samme som Digit-life, at forskellen var hardware bestemt, men de dog ikke mente det kunne betyde så meget. Meeeeeen så gik der lige et par måneder og så kom de frem til følgende:
Newest insights invalidate parts of the theory in this article. We stated, that R420 is clearly slower in discarding pixels during the Z/Stencil-Pass. As a result, the whole rendering process would be slowed down. This doesn't seem to apply as strongly as we stated. The NV40 might have a lower peak-performance when discarding pixels, but possesses finer granularity. In the end there might very well be a small advantage for the NV40. There's also some situations where R420 can't use its HierarchicalZ mechanism.
Still the differences in performance per clock can't be fully explained with just that. Nvidia seems to have used optimizations in their drivers, similar to those which already helped to win Q3A benches for quite a long time now. The driver does intercept and replace CPU demanding calls with less demanding ones. Special optimizations probably favor both, the Q3A and Doom 3 engine. In addition, Nvidia could have shown off quite some creativity in terms of replacing shaders. The company seems to have found a solution that allows for replacement of shaders without affecting image quality.
This currently leads to the following two conclusions: First, performance in Doom 3 is not as much a result of NV40 architecture as we have previously stated. Second, ATI might therefore be able to speed up Radeon based graphic cards as well. It's possible that Nvidia is able to further increase their optimization efforts though. As a result, general gaming performance can't be attained by the means of few games representing all other games anymore. Increased performance in Doom 3 for either ATI or Nvidia doesn't have to be the results of increased utilization of the respective architecture. It could be, but then again, it could just be optimizations inside the driver.
As for a general statement towards replacement of shaders: One can't demand shaders to be executed "as they are" nowadays. In general, built-in shader optimizations, which don't change the final visual results are always valid. It gets more complicated in terms of hand optimized techniques. Still, as long as there's no counterproof, we assume that Nvidia is only making use of things to improve performance, that have been overseen during the programming phase of the game. Anyway, hand optimizations for any benchmark is something to take very seriously, because Doom 3 is one of the default benchmarks for almost any review out there.
Demirug er en anderkendt programmør og han har helt sikkert mere tjek på tingene end de fleste. Mht. til spil specifikke optimeringer, det laver de stadigvæk hele tiden... Tjek f.eks. hvor meget ydelsen er steget i Valve VST, hvis det var generelle optimeringer ville TR AOD også have oplevet et kraftigt boost da det også er meget shader intensivt. Desuden er nVidia bemærkelses værdigt stille når det kommer til Catalyst AI (som netop er spil specifikke optimeringer), hvis de ikke selv brugte dem ville de 100% sikkert benytte lejligheden til at "mobbe" ATI. Desuden skrev næsten samtlige hardwaresider der anmeldte AI at nu havde ATI også fået spil specifikke optimeringer, så det er vidst en offentlig hemmelighed at nVidia bruger det i vid udstrækning. Rygterne siger endda at nogle af dem der tjener flest penge i koncernen netop er driver optimerings holdet ;-)
Faktisk er Ultra Shadow II ikke brugt i D3, kun den normale Ultra Shadow som også sidder i FX serien. Hvis Ultra Shadow og det at nVidia korts pipeline kan udregne to stencil værdier pr. cycle virkelig betød noget, ville FX serien også jorde 9XXX totalt.
Mit tyske er desværre så usselt at jeg måtte kæmpe mig gennem noget kryptiske 'engelske oversættelse' ;-) men tak for linket.
Nuvel, i forbindelse med 3DMark2003 skandalen sidste år gjorde nVidia selv et større nummer ud af at publicere nye retningslinier for applikationsspecifikke optimeringer. At nVidia tilføjer optimeringer rettet direkte mod specifikke applikationer er således absolut ingen hemmelighed.
Hvor meget af nVidias forspring i Doom3 der skyldes shader optimeringer, og hvor meget der skyldes NV40 arkitekturen er vel svært at udtale sig om, og 3dcenter er da også udsædvanligt vage i deres formuleringer:
Increased performance in Doom 3 for either ATI or Nvidia doesn't have to be the results of increased utilization of the respective architecture. It could be, but then again, it could just be optimizations inside the driver.
Jeg føler mig absolut ikke overbevist om at at 3dcenters gisninger er noget solidt fundament for at konkludere at "D3 resultatet giver et ureelt billede af ydelsen fra nVidia's kort, grundet intensive spil specifikke driver optimeringer"
Sandheden er at jeg har svært ved at se andet end det positive i at nVidia og nu også ATI tilretter outputtet fra HLSL compileren til en struktur der stemmer bedre overens med den anvendte hardware, så længe det genererede billede er uændret.
En diskussion af om den ene eller den anden hardware arkitektur er optimal anser jeg for at være rent akademisk og i grunden ikke særlig relevant. Relevant er alene den kombinerede ydelse af hardware og driver software, værdien af et ubenyttet potentiale er til at overse.
Personligt vakler jeg mellem X800 XT'eren og 6800 GT/Ultra, men min forkærlighed for alt fra id software gør det svært at ignorere XT'erens noget skuffende ydelse i Doom3.
Det er jo snart så gammelt at det er begyndt at stige i værdi igen ;-)
0x535c1cbe.vjnxx1.adsl-dhcp.tele.dk skrev Tuesday den 09 November 2004 kl. 18:35: [ svar | nyeste ]
Jeg sidder med en AMD 2800+ med et GF4 TI 4600 i.
Kan det betale sig at opgradere til et HIM 9800 pro IceQ eller bør man vente?
Kortet må ikke koste over 2k :(
Rune skrev Tuesday den 09 November 2004 kl. 18:42: [ svar | nyeste ]
Med 9800Pro ICEQ er du godt rustet til Half-Life 2, og vil samtidig få et ekstremt støjsvagt grafikkort - alternativt kan du få GeForce 6800 til omkring kr. 2.500,00 (inkl. potentielt meget larmede blæser). Check evt. http://www.edbpriser.dk eller http://www.g2p.dk for priser på 9800Pro, 9800XT og 6800.
Thomas skrev Tuesday den 09 November 2004 kl. 19:27: [ svar | nyeste ]
Jeg har kigget på et Asus V9999GT/TD/128MB, GeForce 6800GT til 2500 istedet.
Er et det så meget hurtigere at det kan opveje den larm det laver efter din mening?
Ydelse er nok vigtigere end hvor støjsvagt det er for mig da PCen alligevel står indelukket så den ikke larmer så meget.
KLipa skrev Tuesday den 09 November 2004 kl. 19:28: [ svar | nyeste ]
Rune, hælder du stadig til ATI X800 XT PE? Eller er du som mig ved at skifte til Nvidia 6800 Ultra?
Hvis du er til Nvidia; fra hva for en producent ville du så købe et af Ultra modellerne?
Rune skrev Tuesday den 09 November 2004 kl. 20:23: [ svar | nyeste ]
Jeg kender intet blæserkølet GeForce 6800 Ultra grafikkort, som er anbefalelsesværdigt - eneste interessante grafikkort er efter min opfattelse Galaxy GeForce 6800GT og HIS X800XT PE IceQ2, resten ville jeg ikke røre med en ildtang :-)
V.P. skrev Tuesday den 09 November 2004 kl. 20:38: [ svar | nyeste ]
Hvorfor netop Galaxy udgaven af 6800GT Rune?
Rune skrev Tuesday den 09 November 2004 kl. 20:46: [ svar | nyeste ]
0x50c79265.naenxx3.adsl-dhcp.tele.dk skrev Tuesday den 09 November 2004 kl. 20:39: [ svar | nyeste ]
hej jeg har kik på dette kort til Ca. 3000Kr. Men kan ikke finde ud af hvad det svare til i testen. og om det virkelig er en Nvidia Ultra Chip der er i
Anarchy skrev Tuesday den 09 November 2004 kl. 21:09: [ svar | nyeste ]
Det er ikke et ultra kort. Gainward kalder alle deres kort under Ultra kort for "Ultra" (forvirrende ikke?) og deres ultra kort kalder de "Extreme" (endnu mere forvirrende).
Dog er Gainward ikke de eneste der pratiserer denne form for "misinformation" Asus f.eks. er osse ret slemme til at navngive deres GPU produkter så man ikke fatter en hat af hvad man køber :P
Det kort du linker til der er et "non-ultra", "non-GT" kort. Altså et almindeligt 6800 kort bare clocket en smule.
jesper skrev Tuesday den 09 November 2004 kl. 21:27: [ svar | nyeste ]
Der er altså et andet GeForce 6800 GT kort der også er rimeligt støjsvagt, det er et Leadtek WinFast A400 GT TDH, se evt. denne test http://www.tweakup.dk/article/455/dk/
Det kigger jeg i hvert fald mege på.
Rune skrev Tuesday den 09 November 2004 kl. 21:38: [ svar | nyeste ]
Leadtek WinFast A400 GT TDH er bestemt ikke støjsvagt - se de objektive målinger her:
Subjektive målinger kan næppe bruges til meget, da personlige oplevelser kan variere meget (som skrevet tidligere, så kan en bibliotekar og trommeslager i Heavy Metal band definere ordet støjsvagt på meget forskellige måder). Gad vide, hvor mange, som ville acceptere subjektive resultater mht. cpu-ydelse og grafikkort-ydelse (dvs. ingen objektive testresultater, anmelderen skriver blot, hvad vedkommende oplevede med det blotte øje - test af ramtimings ville nok blive særlig morsom læsning)...
David skrev Tuesday den 09 November 2004 kl. 21:31: [ svar | nyeste ]
Ja David og så glemte du lige at du skal allerede have vand i computeren eller ofre tid og penge på et vandkølesystem for at kunne bruget det kort du linker til
David skrev Wednesday den 10 November 2004 kl. 18:36: [ svar | nyeste ]
jeg var vist lidt træt i går. Det er Gigabyte der er på vej med et 6800 (12 pipes/128 MB 256bit ram) der kølet med heatpipes:
Jeg leder efter et nyt grafikkort til at køre både Doom3, Half-life2, Thief3, Far cry og WoW.
Jeg kiggede efter et GF6800 (ikke GT eller Ultra) med 128 RAM, men de er umulige at støve op.
Kender i nogle steder, hvor de har et, og evt. hvilket mærke kan i anbefale?
V.P. skrev Tuesday den 09 November 2004 kl. 23:38: [ svar | nyeste ]
Det er af min erfaring at de få kort der kommer til dk, bliver bogstaveligt talt udsolgt inden de når butikkerne, der er simpelthen et for lille udbud. Ifølge bbec.dk skyldes det at alle anvender samme distributør, som jeg ikke lige kan huske på navnet på. Mit råd er; ring rundt og spørg, stol IKKE hvad der står på diverse it-butikkers hjemmesider.
Fede skrev Wednesday den 10 November 2004 kl. 10:54: [ svar | nyeste ]
Har "lige" bestilt et
CLUB3D NVIDIA GEFORCE 6800
fra mindstormstormsystems.dk bestilte det i fredags og de sendte det igår
Kiwi skrev Thursday den 11 November 2004 kl. 10:09: [ svar | nyeste ]
cAPS lOCK der er måske ingen der bruger tid på Starwars Battlefront, Prince of Persia: Sands of Time, Sims 2, Colin McRae Rally 04, Tribes Vengeance, Starwars KOTOR, GTA Vice City, Perimeter, NFSU osv.? Pointen er at når nVidia bruger meget tid til at optimere til et bestemt spil (som selvfølgelig først og fremmest er dem der bliver brugt i benchmarks), giver det ikke et korrekt billede af hvad du kan forvente dig i ydelse når det kommer til andre uoptimerede spil. Selvom et spil ikke er en populær benchmark kan der sagtens være en masse folk som nyder at spille det. F.eks. denne Thief 3 benchmark: http://www.driverheaven.net/reviews/PNY/thief3.htm der har nVidia flere problemer end ATI har i D3, meeeeen det er jo ikke så populært så det gider de ikke optimere til (skal dertil nævnes at deres ydelse har været endnu ringere så noget har de da lavet...).
Lad os også lige tjekke de spil der er ovenfor: Tomb Raider AOD, Far Cry, Painkiller og Doom3 er alle sammen TWIMTBP spil. Dvs. nVidia har været med i udviklings fasen og givet "råd og vejledning". F.eks. skulle Crytek være blevet "anbefalet" at bruge FP16 så mange steder som overhovedet muligt (kilde B3D), da ATI kort konstant kører med FP24 vil det give nVidia en fordel hastigheds mæssigt. Call of Duty er bygget over Quake 3 engine, dvs. nvidia også er på "hjemmebane" der. Dog ser vi f.eks. denne benchmark: http://www.xbitlabs.com/articles/video/display/asus-ax800xt-tvd_4.html der viser man bare skal skrue lidt op for settings, så falder nvidia bagud....
I Unreal 2 og Halfilfe 2 Alpha har nVidia fået ydelsen 20% højere op i forhold til april, sjovt nok er ydelsen i samme periode ikke steget nævneværdigt i TR AOD, så det ser ikke ud til at komme fra generelle shader optimeringer. Selvfølgelig behøver det ikke være spil specifikt, men det ser da alligevel lidt sjovt ud.
Udfra ovenstående burde det da ihvertfald være tydeligt at nVidia "spiller på hjemmebane" i Digitlifes test.
>> ...der er måske ingen der bruger tid på Starwars Battlefront, Prince of Persia: Sands of Time, Sims 2, Colin McRae Rally 04, Tribes Vengeance, Starwars KOTOR, GTA Vice City, Perimeter, NFSU osv.?
Sammenlignet med doom3 og half-life 2 så er svaret nej.
>> Pointen er at når nVidia bruger meget tid til at optimere til et bestemt spil (som selvfølgelig først og fremmest er dem der bliver brugt i benchmarks)...
Jeg ser ikke de sammen lyssky motiver, jeg tror sandheden er at både ATI og nVidia vælger at fokusere på de mest successfulde spil, og naturligvis er det samme kriterier hardware sites vælge til deres benchmarks - så at der er et vist sammenfald forbløffer mig ikke.
>> ...giver det ikke et korrekt billede af hvad du kan forvente dig i ydelse når det kommer til andre uoptimerede spil.
Måske, måske ikke, hvis optimeringerne ikke er af generel karakter har du naturligvis ret. Men, nu svarede jeg jo altså på et indlæg hvor pointen var at ydelsen i et spil som half-life 2 skulle ignoreres netop fordi det var et af de spil man optimerede mod. For mit vedkommende er ydelsen i både doom3 og half-life 2 rimeligt afgørende. Om en høj framerate i de to spil skyldes optimeringer eller ej er for mig sekundært.
Nu du selv nævner TWIMTBP kampagnen. Jeg har umiddelbart lidt svært ved at forstå at den kampagne kan bringe folk i den grad i kog... Jeg synes netop at det er et rigtig godt argument for at vælge nVidia at de kaster resourcer efter at rådgive spiludviklere i hvordan de udnytter hardwaren optimalt. Jeg tror ikke på at nogen spiludvikler vil tillade nVidia at handicappe ydelsen på ATIs hardware.
/cl
Kiwi skrev Sunday den 14 November 2004 kl. 12:04: [ svar | nyeste ]
Det kan godt være du personligt kun vil spille D3 og HL2, men langt de fleste spiller et bredt udvalg af spil. At købe grafikkort baseret på ydelsen i 2 spil er efter min mening temmelig ensidet, men dig om det...
Det jeg hele tiden har prøvet at argumentere for er at pga. af de spil specifikke optimeringer, vil du ikke kunne overføre ydelsen i en test af 5-6 af de mest populære spil til samtlige spil på markedet. Selvfølgelig er dette ikke et problem hvis man kun spiller de 5-6 mest populære spil....
F.eks. et enkelt lille spørgsmål:...
Lige en enkelt ting til. Der er ingen diskussion om at nVidia i udbredt grad bruger spil specifikke optimeringer. I visse tilfælde har mods til populære spil endda tabt i ydelse indtil nVidia fik tilpasset deres optimeringer. Som sagt i et tidligere indlæg, er nVidia kort pga. deres konstruktion forholdvis afhængige af disse optimeringer. Så det er 100% sikkert at du vil opleve forskel i optimerede og uoptimerede spil. Problemet ligger i at når nu ATI også begynder på at optimere til specifikke spil, kan vi risikere at de begynder at "bekrige" hinanden og kun vil koncentrere sig om de mest populære titler. I yderste konsekvens kan vi ende med at de ikke bruger tid på at rette bugs i "ukendte" spil...
Mht. TWIMTBP er det helt op til spiludviklerne selv hvad de vælger, og som allerede sagt er logo'et bestemt ikke en garanti for at det kører hurtigst på nVidia hardware. Dog virker det lidt til at de gerne vil have folk til at tro det ;-)
Mht. til om spiludviklere kan finde på at lægge begrænsninger på "konkurrentens" hardware. Hvordan kan det f.eks. være at JC bruger 5 år på at udvilke D3, men ikke engang kan finde det lille tweak som Humus udgav (vi taler om en enkelt linie i config)? Hvordan vil du forklare at FX kortene får tæsk i alle nye spil, bortset fra Doom3? JC udtalte endda selv i et interview til B3D, at FX serien ville blive nødt til at køre på deres egen optimerede path for at kunne følge med Radeon serien. Da spillet kom ud kørte FX kort lige pludselig med samme hastighed som tilsvarende Radeon kort, og det er uden en specielt optimeret path. Hvordan kan det være at X800 korts min. FPS falder med SM2.0b i Far Cry ( http://www.xbitlabs.com/articles/video/display/farcry13_14.html nederst )? Vi lever i en verden hvor alt styres af penge, og du skal ikke bilde mig ind at f.eks. Valve og ID overhovedet ikke "tager parti". Bare kald mig kynisk, men det er trods alt sådan forretnings verdenen fungerer når det kommer til store firmaer....
> Det kan godt være du personligt kun vil spille D3 og HL2 [...]
Mange spil har interesse, men visse vejer tungere end andre. Der er så få timer i døgnet, dage i ugen, år i et liv.... ;-)
I skabet står Far Cry og doom3, første gennemspilning får lov at vente til et mere potent grafikkort sidder i 'the belly of the beast', og med Quake4 i horisonten vægtes ydelsen i Carmacks engine højt.
> Det jeg hele tiden har prøvet at argumentere for [...]
Jeg burde nok ha' skrevet tidligere at, jo, jeg er helt med på din pointe, og faktisk er jeg af samme overbevisning.
Der hvor vi er uenige (hvis vi overhovedet er det?) er at ydelsen i ovennævnte spil har en vis betydning her, og at det i praksis er mig underordnet hvor stor en del af et forspring der skyldes headroom i hardwaren hhv. bedre tilpasset kode.
> [...] Vi lever i en verden hvor alt styres af penge, og du skal ikke bilde mig ind at f.eks. Valve og ID overhovedet ikke "tager parti". Bare kald mig kynisk, men det er trods alt sådan forretnings verdenen fungerer når det kommer til store firmaer....
OK, fair nok, her er vi så heller ikke enige ;-)
I dag er der så mange penge i spilindustrien at firmaer som Valve og id ikke kan købes, de $6 millioner ATI har tilført Valve er peanuts sammenlignet med den potentielle/forventede samlede indtjening (http://www.gamespot.com/features/6112889/p-2.html). Netop fordi Valve og id er firmaer, styres de af økonomiske overvejelser og ikke følelsesmæssige tilknytninger. Ingen af dem interesseret i at begrænse deres kundesegment unødvendigt.
Nuvel, I rest my case ;-)
/cl
V.P. skrev Thursday den 11 November 2004 kl. 11:44: [ svar | nyeste ]
Både Colin McRae Rally 04 og 05 versionen, samt POP:SAT, er optimeret til nvidia kort, de andre spil ved jeg ikke, da jeg ikke har prøvet dem, med undtagelse af Thief 3 (og jeg kan informere dig om Kiwi, at der findes mange gode tweaks som du selv kan gøre i det spil, ved at redigere visse filer.)
fjog skrev Thursday den 11 November 2004 kl. 16:29: [ svar | nyeste ]
Øhhhh.... Kiwi og ATI optimere SLET ikke til noget??? Aner man en lille ATI-fanboy, der er sur over at hans kort bliver slået af et Nvidia kort?
Sjovt du også henviser til driverheaven, de er jo nvidias svar på nvnews! Så den side kan du ikke bruge til en skid, den er jo så farvet.
Derimod vil jeg give Anders ret i det han skriver, for det er sgu begge parter der optimere alt i hoved og røv. ATI er ingen engel, de er lige så slemme som nvidia (dog ved undtagelse af FX-skandalen).
Men holder sgu også på at hvert hardware-site burde optage deres egne timedemos, som hardware-producenterne ikke havde adgang til. Se det ville give den mest fair bedømmelse af de forskellige kort. Ikke det der vi har nu hvor Nvidia og ATI kan skjule alle mulige optimeringer som måske ikke vil afspejle den reele spiloplevelse.
Kiwi skrev Friday den 12 November 2004 kl. 09:59: [ svar | nyeste ]
Fjog faktisk har de kun brugt generelle optimeringer, dvs. deres optimeringer er kommet alle spil til gavn. Det er først nu med AI de er begyndt på spil specifikke optimeringer. Driverheaven er et anerkendt og respekteret hardware site, det kan godt være de er glade for ATI men hvis de begyndte at fuske med deres becnhmarks (som du efter min mening antyder) ville respekten for dem falde gevaldigt. Desuden er der en benchmark af Thief 3 her: http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_35.html og Colin McRae Rally 4 her: http://www.xbitlabs.com/articles/video/display/asus-ax800xt-tvd_15.html , så drop det fis med at Driverheaven er "farvet".
Desuden er det ikke optimeringer generelt jeg brokker mig over, det er tendensen til at bedømme kort efter 5 forskellige spil som der er blevet optimeret ekstremt til. Specielt i en lavere opløsning hvor der ikke er pres på grafikkortet vil det give et ureelt billede af ydelsen. Tag f.eks. ovenstående spil, hvis vi smider 4xAA/ 16xAF og sætter opløsningen op til 1600x1200 vinder ATI X800XT PE i dem alle (bortset fra D3), og det er endda stadig med spilbare fps....
Der skal være plads til at optimere, f.eks. er nVidia's pipeline ydelse meget afhængig af at shaderen bliver "sorteret" korrekt (til de forskellige dele af pipelinen). Til dette har de en compiler. Hvis du tager en shader der ikke er programmeret specifikt til nVidia vil den ikke køre særlig stærkt, men så smutter en programmør lige ind og fortæller compileren hvordan den skal sortere denne shader optimalt og så kører den fint. Så optimeringer er fine, men man skal bare lære at kortenes "rigtige" ydelse først viser sig når de bliver presset og driver optimeringer derfor betyder mindre.
Takker, jeg var nu klar over det, men fandt alligevel resultatet interessant idet det normalt er ATI der dominerer i høje opløsninger...
/cl
Kiwi skrev Thursday den 11 November 2004 kl. 17:02: [ svar | nyeste ]
V.P. ja de er en del af TWIMTBP.... Men hvor vil du egentlig hen med det? Tag f.eks. Colin McRae 05 og MOH: PA, selv med nyeste beta drivere kan nvidia ikke helt følge med. Det som er pointen er ikke om man synes om optimeringer eller ej, men nærmere at pga. disse optimeringer skal man til at bedømme grafikkort ud fra et meget større udvalg af spil. Du kan ikke længere benche 5 spil og så mene at det giver et reelt billede af kortenes ydelse i alle andre spil.
Mht. til tweaks er det jo ikke lige hjemmearbejde at optimere en driver til at compile instruktioner optimalt.
V.P. skrev Thursday den 11 November 2004 kl. 18:35: [ svar | nyeste ]
Nej, men det er den situiation vi forbrugere ofte står i idag, og så er der ikke andet at gøre end at forholde sig til det.
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.