af Webmaster Friday den 02 July 2004 kl. 15:43 [ Grafikkort ] Både Tech Report og Anandtech har testet Far Cry udførligt med den nye 1,2 patch. Denne 1,2 patch udkommer i næste uge og tilbyder fuld Shader Model 3 understøttelse til GeForce 6800 baserede grafikkort. Vi har i denne artikel omregnet alle testresultater fra førnævnte sites til mere overskuelige oversigter, så vi via gennemsnitlige resultater hurtigt kan danne os et overblik.
Bemærk, at Anandtech benyttede Athlon 64 3400+ platform, Forcewaredriver 61.45 og Catalyst 4,6 til at opnå sine resultater, mens Tech Report anvendte Athlon 64 3800+ platform og samme drivere. I alt tilbyder Anandtech og Tech Report 16 oversigter med resultater fra 1600x1200 uden FSAA og ANI, samt 15 oversigter med resultater fra 1600x1200 med 4xFSAA og 8xANI. Vi har dog ikke tænkt os at gengive samtlige af disse resultater med risiko for total forvirring; i stedet har vi møjsommeligt gennemgået alle disse resultater, og skaleret Radeon X800XT Platinum Edition og GeForce 6800 Ultra (med og uden Shader Model 3) mod hinanden - dvs. præcis samme metode, som vi normalt anvender til at danne de gennemsnitlige resultater, der f.eks. kan ses i afsnittet "Konklusion og afsluttende bemærkninger" i denne artikel:
For at skabe mere klart overblik springer vi således direkte til de gennemsnitlige udregninger, og vi fokuserer endvidere udelukkende på ydelse i 1600x1200. Ønsker man at kender til mere detaljerede testresultater, så kan råmaterialet til resultater i denne artikel findes her:
Det bør endvidere bemærkes, at Far Cry ikke ser flottere ud med Shader Model 3.0 end med Shader Model 2.0, den eneste forskel er indtil videre ydelse, men måske vil der senere udkomme ny patch, som kan forbedre billedkvaliteten - dette er dog uvist aktuelt, jf. dette citat:
"Crytek, the developer of FarCry, recently showcased a special demo of FarCry with loads of Shader Model 3.0 capabilities, such as displacement mapping, exposed. While the screenshots impressed everyone much, it looks like we still have to wait a while until the game will be able to show us all of its glory with pixel and vertex shaders 3.0."
Kilde: http://www.xbitlabs.com/articles/video/display/farcry30.html
Så indtil videre påvirker Shader Model 3 i Far Cry udelukkende billedraten, mens billedkvaliteten vil være ensartet på ATi og Nvidia grafikkort. Vi starter med gennemsnitlige ydelsesforskelle uden FSAA (=kantudglatning) og ANI (=anisotropisk filtrering):
RESULTATER UDEN FSAA OG ANI
I gennemsnit er der ikke stor forskel på diverse grafikkort, dog vinder GeForce 6800 Ultra med SM3. SM3 medfører i gennemsnit 4% bedre ydelse end med SM2. Og GeForce 6800 Ultra SM3 er nu 3% hurtigere end Radeon X800XT Platinum Edition. Med 4xFSAA og 8xANI bliver diverse forskelle dog noget større:
RESULTATER MED 4xFSAA OG 8xANI
Her blev forskellen på SM2 og SM3 meget større, hvilket kan skyldes, at SM3 medfører hurtigere beregninger, så der er flere resurser til FSAA og ANI. GeForce 6800 Ultra vinder her 11% ekstra ydelse med SM3.0 end med SM2.0. GeForce 6800 Ultra SM3 er her 9% hurtigere end Radeon X800XT Platinum Edition.
KONKLUSION OG AFSLUTTENDE BEMÆRKNINGER
De fleste havde nok håbet, at SM3-understøttelse ville gøre Far Cry meget flottere end med SM2-understøttelse. Indtil videre er dette ikke tilfældet, eftersom SM3-understøttelse via patch 1,2 til Far Cry udelukkende medfører bedre billederate - dvs. 4% og 11% hhv. uden FSAA/ANI samt med 4xFSAA/8xANI på GeForce 6800 Ultra. Det er muligt, at der senere vil udkomme ny patch til Far Cry, som også vil forbedre billedkvaliteten, men eftersom Far Cry allerede er 4 måneder gammelt, og da mange allerede har gennemført spillet, kan det tænkes, at SM3.0 forbedringer mht. billedkvalitet ankommer som del af senere udvidelse til Far Cry, hvilket XBitLabs her spekulerer i:
"Unfortunately, we did not get any new effects with the Shader Model 3.0 path like those that were showcased earlier. Perhaps, Crytek will add the to the FarCry later, but maybe they are left for the upcoming FarCry Instincts mod."
Kilde: http://www.xbitlabs.com/articles/video/display/farcry30.html
Alt er dog spekulationer indtil videre, og før vi ser mere konkrete resultater, er ekstra ydelse det eneste, som GeForce 6800 Ultra bringer via SM3 i forhold til Radeon X800XT PE i Far Cry.
Rune skrev Friday den 02 July 2004 kl. 16:06: [ svar | nyeste ]
GoD artikel Rune!... Her får vi sat punktum for, at det ikke kan betale sig at købe et 6800 Ultra grafikkort, istedet for X800XT, da vi kan se at der er tale om en meget lille ydelsesforskel på SM2.0 og 3.0! Derudover er Nvidias nye grafikkort større, dyrere og bruger mere i strøm, samtidig med at den ikke understøtter 3Dc kromprimeringsteknoligien, hvilket ATI´s gør... Dog kan jeg være lidt skeptisk overfor den påstand, at 6800 Ultra er ca. 50% hurtigere end konkurrenten X800XT i det kommende pc-spil DoomIII, men lad os nu se!!!
Rune skrev Friday den 02 July 2004 kl. 16:26: [ svar | nyeste ]
Tak, det kan være, at anden patch udkommer senere, dog ser det ud til, at Crytek er meget langsomme til at udvikle disse patches (så måske er det meget svært at implementere SM3?), og ej heller har testet patchen ordentligt på ATi grafikkort (alvorlige fejl kan opstå på ATi grafikkort med patch 1,2), og skal man atter vente 3 måneder på ny patch, så er Far Cry nok relativt uinteressant. Så Doom3 og STALKER har vel nu markant større betydning.
EP skrev Wednesday den 07 July 2004 kl. 12:45: [ svar | nyeste ]
Hvis de skal opgradere system til SM3 og det skal se bedre ud end det gør kan man jo også forvente at der ligger en stor grafikker byrde i at forbedre textures, normal maps etc. etc... Det er nok derfor det tager tid. Havde det bare været til at programmere sig ud af, var det jo nok gjort med patch 1.2..
Sjovt nok havde vi jo lige den diskussion kørende. Rammende artikel og yderst brugbar.
Skøt skrev Friday den 02 July 2004 kl. 17:26: [ svar | nyeste ]
Jeg syntes bestemt også disse artikler er brugbare, men hos mig har de nu nærmest flyttet mig tættere på et gf6800gt iforhold til x800pro.
De store drenge (x800xt/6800u) kigger jeg slet ikke på, de er i mine øjne for dyre.
At performance forskellen _overall_ ikke er voldsom kan vel ikke undre, det er jo ikke fx. en højere core.clock der bliver testet, men en shader specifik optimering, så det er vel kun naturligt at det mest er de steder hvor disse funktioner anvendes meget at der er en forskel (helt op til 25% i enkelte tilfælde i følge guru3d).
Er lidt ked af at der så ofte kun fokuseres på x800xt vs. 6800u og ikke på x800pro vs. 6800gt.
Hvor svært sm3.0 optimeringer er at implementerrer tør jeg ikke udtale mig om, men i forhold til den lange udviklingstid på farcry-patchen, syntes jeg lige man skulle konsultere deres change.log, det er jo ikke bare sm3.0 de har arbejdet med, fx. er det en game.bug og et cd-key.security-issue der pt. holder den tilbage.
RE:
"Dog kan jeg være lidt skeptisk overfor den påstand, at 6800 Ultra er ca. 50% hurtigere end konkurrenten X800XT i det kommende pc-spil DoomIII, men lad os nu se!!!"
Hm, ok. Er du da så ikke også skeptisk overfor, at HL2 skulle køre 40% bedre på X800 XT end på 6800 Ultra? Hvis ik: Fanboy :P
sk0t skrev Friday den 02 July 2004 kl. 17:36: [ svar | nyeste ]
@Lynge....den med strømforbruget, skulle vi ikke lade den ligge ved Runes balancerede konklusion fra tidligere:
"Grundlaget for at kritisere GeForce 6800 Ultra for at kræve kraftigere strømforsyning og dobbelt så mange strømstik som Radeon X800XT er således smuldret, selv om GeForce 6800 Ultra naturligvis stadig bruger ca. 25 watt mere end X800XT ved maksimal belastning."
Har også lidt svært ved at se at kortets størrelse skulle være af større betydning for ens valg, men bevares...smag & behag :)
3dc derimod, se det vil være min bekymring nr.1 hvis jeg vælger 6800gt (ligesom sm3.0 vil være det hvis jeg vælger x800pro, navnligt efter at have set disse farcry 1.2 tests)
Kiwi skrev Friday den 02 July 2004 kl. 17:39: [ svar | nyeste ]
Tja.... På de andre sider ser det ud til at X800XT PE stadig ligger over 6800ultra i ydelsen når AF/AA er slået til, kun anandtech der mener anderledes... Synes dog de godt kunne smide 3DC understøttelse på Far Cry også ;-)
Rune skrev Friday den 02 July 2004 kl. 18:01: [ svar | nyeste ]
X800XT PE har også 31% større fillrate end 6800 Ultra (8,4 GB/s vs. 6,4GB/s), og burde således være 30% hurtigere end 6800 Ultra, når SM3 ikke anvendes; at dette ikke er tilfældet, vil jeg tro skyldes, at Nvidia har været bedre til at optimere deres drivere end ATi (og selvfølgelig kan der være mange andre hardware-forskelle). Men ok, i Research demoen hos Tech Report var X800XT faktisk 30% hurtigere end 6800U i 1600x1200 4xFSAA/8xANI (og 23% i Training-banen), når begge grafikkort anvendte SM2 - men denne forskel ses kun sjældent.
Brian skrev Friday den 02 July 2004 kl. 17:46: [ svar | nyeste ]
Ja jeg har haft ati længe nu men må sige at et 6800 er måske mit valg frem for x800 serien.
Da dette kort har et par smarte ting er dette rigtigt eller er x800 serien bedre
Rune skrev Friday den 02 July 2004 kl. 18:04: [ svar | nyeste ]
Det spørgsmål vil nok være mere relevant at besvare, efter at Doom3 og Half-Life 2 er udkommet.
Nå ja, det er ganske vist en tidlig betaudgave af HL2. Men her ser det i hvert fald ikke ud til at der er den store forskel mellem high-end X800XT og 6800 Ultra.
Sven skrev Friday den 02 July 2004 kl. 21:41: [ svar | nyeste ]
RE: "Dog kan jeg være lidt skeptisk overfor den påstand, at 6800 Ultra er ca. 50% hurtigere end konkurrenten X800XT i det kommende pc-spil DoomIII, men lad os nu se!!!"
Nu ved jeg ikke om DOOM III er udviklet til OpenGL eller til DirectX. ID's tidligere spil har jo været OpenGL, hvor Nvidia i lange tider har haft førertrøjen, så er DOOM III udviklet til OpenGL er det sikkert en af forklaringerne på denne tilsyneladende store forskel.
Jeg er lidt spændt på at se om andre vil lave en SM3 patch, og måske få at vide, hvor svært det er at implementere i directX-spil. Først da vil jeg kunne danne mig et overblik over, om SM3 kan flytte mit om-ikke-så-længe indkøb af nyt grafikkort, X800XT PE eller 6800Ultra (extreme, hvis det er til at finde).
Lige nu hælder jeg stadig mest til ATI.
Sven skrev Friday den 02 July 2004 kl. 21:44: [ svar | nyeste ]
Hovsa, den skulle ikke have været sent endnu !
Nogen der ved hvornår vi vil kunne få mere at vide om dette mod til FarCry?
Unfortunately, we did not get any new effects with the Shader Model 3.0 path like those that were showcased earlier. Perhaps, Crytek will add the to the FarCry later, but maybe they are left for the upcoming FarCry Instincts mod."
Kilde: http://www.xbitlabs.com/articles/video/display/farcry30.html.
hmmm... ja DoomIII kunne meget vel være baseret på OpenGL 2.0!
ReXuZ skrev Saturday den 03 July 2004 kl. 16:17: [ svar | nyeste ]
Lige pt. sys jeg X800 Serien virker bedre pga. 3dc, hvorfor købe SM3.0 når man ikke får 3dc? Jeg vil ihf. hellere have 3dc end SM3.0. Hvorfor? Ja for det første har man SM2.0 som lige pt. er lidt ringere end SM3.0, men giver samme kval ang. billedet(pt.). Hvis man derimod ikke har 3dc, får man ringere billede og ikke samme oplevelse som dem med 3dc. Hvis der var 3dc på Nvidias kort, ville det self. være oplagt.
Kiwi skrev Saturday den 03 July 2004 kl. 16:33: [ svar | nyeste ]
Nu har vi ikke set Displacement Mapping (SM3.0) i funktion endnu og der er heller ikke nogle faktiske test å bordet der viser hvor meget man vinder med 3DC. Vi ved f.eks. heller ikke hvor meget SM3.0 optimeringerne kommer til at betyde i forbindelse med SM2.0 kode da Far Cry næsten kun bruger SM1.1.
Men rent umiddelbart er jeg enig med dig. SM3.0 giver lidt ekstra hastighed, men det er ikke noget der jorder de andre totalt. 3DC virker derimod som om det virkelig kunne influrere på kvalitet/ hastighed, men det kræver jo stadig det bliver understøttet....
Mick skrev Wednesday den 07 July 2004 kl. 12:58: [ svar | nyeste ]
Displacement mapping er muligt på 6800-serien. Men performance er ikke nok selv med 6800U (først i næste generation HW). Det har jeg konkluderet ud fra et par interviews med diverse udviklere og folk fra ATI/NVIDIA selv.
At man har SET displacement mapping anvendt i en demo af den næste Unreal 3.0 engine har ingen betydning (undtagen for fanboys).
Jeg vil se det i et SPIL - og ikke en eller anden reklame. Indtil da er Displacement Mapping rent marketing IMO lige så vigtigt som fx. NVIDIAs Nalu og ATIs Ruby (men det LYDER da meget godt ... *G*).
Anarchy skrev Saturday den 03 July 2004 kl. 17:48: [ svar | nyeste ]
Det vrimler jo med ati-fanboys herinde!!
Siden hvornår er X800XT vinderen??? De 2 kort er f***** tæt på hinanden. I nogen test vinder X800XT i andre test vinder GF6800U...
3Dc kan I stikke skråt op, indtil vi ser om det bare bliver en stinkende fuser som Trueform. Så det er IKKE et argument man kan bruge for at tale fór ATi.
Derimod ved enhver idiot at SM3.0 kommer. Det er bare et spørgsmål om tid. Tilsyneladene bliver Farcry den første med patch 1.2 og senere patch 1.3 med alt det ekstra grafik-lir som X800XT ikke kan.
Ekstra strøm-krævende? Og? Tag en tudekiks og køb en ordentlig strømforsyning. Smid den PSU ud, som du har brugt til din 286.... Det er naivt at tro, at en PSU aldrig skal skiftes ud...
OpenGL anyone??... X800XT stinker jo i OpenGL. Linux? Same deal...
Støj fra blæseren?... Trust me... X800XT larmer langt mere end GF6800U.
Så I må hellere revidere Jeres opfattelse af hvem der er kongen. Performance-wise er de head-to-head. Men de øvrige parametre inkluderet er GF6800U en klar klar vinder.
Men ok, det er ikke mig som smider penge væk på et mindre godt gfx-kort (læs: X800XT)... Det er unægteligt Jer som desperat prøver at få X800XT til at fremstå som et bedre kort...
tsk tsk...
[sprogbrug modificeret, webmaster]
Rune skrev Saturday den 03 July 2004 kl. 19:26: [ svar | nyeste ]
Verden er ikke sort-hvid, og jeg tror næppe, at det vrimler med "fanboys" herinde, tværtimod ønsker mange formodentlig blot at foretage mest optimale investering. At ATi skulle være særligt ringe stillet i OpenGL er derudover en påstand, som må stå for sig selv - eksempelvis indikerer resultater fra iXBT/Digit-Life, at 6800 Ultra kun er 5% hurtigere end X800XT PE i OpenGL (Call of Duty 1600x1200):
Så helt ringe yder ATi næppe under OpenGL, men Doom3 vil naturligvis blive det næste store slag, hvor 6800 Ultra kan blive vinderen. Men alt er tomme og udokumenterede gisninger, før Doom3 er udkommet. Din påstand om, at "X800XT larmer langt mere end GF6800U" er i direkte modstrid med internationale testresultater og objektive målinger:
"Was für die Karte [=GeForce 6800 Ultra med standardkøler, red.] weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich. Board-Hersteller sollten deshalb das Nvidia-Design verwerfen und ein leiseres Kühldesign für die Grafikkarte entwickeln."
Kilde: http://www.chip.de/artikel/c_artikelunterseite_11772657.html?tid1=14941&tid2=0
"Die Karte [=Radeon X800XT med standardkøler, red.] war als Ein-Slot-Lösung konzipiert und kann damit sogar in Barbone-PCs verbaut werden; zudem lag die gemessene Lautheit von 2,4 sone beziehungsweise 42,2 dB(A) im nicht hörbaren Bereich. Summa summarum: Drei große Pluspunkte für ATIs Radeon X800 XT Platinum Edition im Vergleich zum GeForce-6800-Ultra-Modell."
Kilde: http://www.chip.de/artikel/c_artikelunterseite_11828789.html
Og:
"The same ducted design used on the RADEON 9800 XT is still in place on both X800 cards. Air enters through the card’s fan where it passes between the heatsinks fins before exiting out the right side and upper portion of the duct. The fan itself is large yet quiet. With many more fins present the fan doesn’t have to spin up to the high RPMs used by GeForce 6800 Ultra, resulting in a card that generates a lower noise level."
Kilde: http://www.firingsquad.com/hardware/ati_radeon_x800/
Det laveste støjniveau, som hidtil er publiceret med 6800U og luftbaseret kølesystem er fra MSI med 26dBA, mens det forventes, at X800XT PE med ICEQ2 når under 20 dBA. Læs mere om støjsvage grafikkort i denne artikel:
Så alt tyder på, at X800XT ifht. 6800U bruger 1) 25 watt mindre effekt; 2) generelt larmer mindre; 3) mangler SM3.0 og Ultra Shadow II; og 4) tilbyder 3Dc. Der er således glimrende argumenter for at vælge disse grafikkort, og jeg tror ikke, at man vil blive skuffet, uanset hvad man vælger (såfremt man vælger et grafikkort, hvor kølesystemet larmer under 30 dBA oplyst via producentens egne målinger).
nQben skrev Saturday den 03 July 2004 kl. 21:49: [ svar | nyeste ]
mmm det der med hvad der larmer mest og hvad larmer mindst, er i for sig ligegyldig.. brug vandkøling
1) Larmer ikke
2) Bedre køling
3) forholdvis billigt
4) nemt og installere
5) fri for larmende kølere
sorry for et lille sidelæg :D
Kiwi skrev Saturday den 03 July 2004 kl. 18:54: [ svar | nyeste ]
Grundet X800XT's hurtige AF vinder den langt de fleste benchmarks hvor det er sat til (også selvom 6800 kører med SM3.0), og man køber vel ikke et high end kort for at køre "pure speed" vel?
SM3.0 inkluderer KUN en ny funktion til at lave "ekstra grafik lir" og det er displacement mapping, hvilket igen "kun" er en udviddet bumpmapping. Så du bliver gevaldigt skuffet hvis du tror 6800 vil kunne lave meget flottere grafik end X800.
3DC bliver en åben standard, dvs. at alle producenter kan indbygge denne funktion på deres kort. For at kunne bruge større textures i spil skal du enten øge rammængden på kortet eller lave en bedre komprimering. Så hvis der skal større detajlegrad på fremtidens textures er det langt det nemmeste at udnytte den teknologi som ATI "gratis" deler ud af, fremfor at losse ekstra 256mb på kortene. Det burde selv Nvidia og deres fanboys da kunne se.... Desuden er den forholdvis nem at tilføje til både nuværende og fremtidige spil, mens SM3.0 kræver en del programmering. Men som sagt, spilprogrammørerne bestemmer...
Mht. køler. Mine erfaringer med Arctic Silencer siger at du ikke får noget der er mere lydløst, og den fås standard monteret på en del X800 kort.
ATI's AF kører af en eller anden grund ikke så godt i opengl, men det betyder jo ikke at kortet er dårligt i opengl? Det er jo ikke fordi der er noget enormt ydelses hul imellem 6800ultra og X800XT i de få spil der bruger opengl...
Generelt vil jeg sige at ovenstående test viser at når 6800ultra spiller sit "es" ud (SM3.0) kommer det på højde med X800XT, men det når ikke over... DERFOR er 3DC et godt argument for X800, du får den samme ydelse og samme kvalitet (godt nok minus displacement mapping), mindre varmeudvikling og oveni det får du en teknik der kan kan give langt mere detaljerede textures hvis det udnyttes.... Så pt. er X800XT efter min mening det bedste køb, MEN måske får 6800 en fordel i de nye 3d spil der kommer... Personligt venter jeg derfor på at se de forskellige korts ydelse i disse spil før jeg vælger kort.
Rune skrev Saturday den 03 July 2004 kl. 19:38: [ svar | nyeste ]
Ja, det kan endvidere undre en del, at Far Cry ser ud til at blive en stor skuffelse mht. billedkvalitet, når patch 1,2 formodentlig udkommer i næste uge. I forbindelse med Nvidia 6800 Ultra introduktion i april blev det fortalt, at diverse SM3-baserede forbedringer af billedkvaliteten i Far Cry var blevet foretaget på kun 3 uger. Men nu, snart 3 måneder senere, er der intet nyt om disse forbedringer. Så spørgsmålet er, hvorvidt det reelt er nemt at implementere forbedringer af billedkvaliteten via SM3 - med udgangspunkt i den aktuelle udvikling via patch 1,2 kunne noget tyde på, at det er ekstremt vanskeligt at implementere SM3-baserede visuelle forbedringer. Dvs. det store spørgsmål er: "Såfremt Crytek havde implementeret fuldt funktionelle SM3-baserede visuelle forbedringer i Far Cry allerede i midten af april, hvorfor i alverden har vi så ikke set noget til disse forlængst?". Derudover har mange allerede gennemført Far Cry nu, så selv om SM3-baserede visuelle forbedringer skulle gøre sig gældende i ny patch i dette spil, er der nok mange, som ikke gider spille sig igennem spillet endnu engang - handlingen er jo den samme.
Rune skrev Saturday den 03 July 2004 kl. 21:55: [ svar | nyeste ]
Ifølge Hexus.net taber X800XT PE op til 14% i ydelse ved at skifte fra Far Cry 1,1 til 1,2:
"While initially static, the X800 loses 11% at the median setting and nearly 14% at the upper setting [som er 1600x1200 med 4xFSAA og 8xANI, red.], compared to its performance with patch 1.1. With the patch's SM2.0 patch supposedly giving a speedup to all SM2.0 cards, it was a surprise to see the X800 drop any performance at all."
Kilde: http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03OTYmdXJsX3BhZ2U9MQ==
Så det er muligt, at X800XT PE ikke er langsommere end GeForce 6800 Ultra SM3, blot patch 1,1 fortsat anvendes til X800XT PE. Dvs. har man et X800-baseret grafikkort og ingen problemer med Far Cry 1,1, så bør man nok overveje at holde sig fra patch 1,2. GeForce 6800 Ultra SM2 blev 4% hurtigere ved at skifte fra 1,1 til 1,2 i 1600x1200 med 4xFSAA og 8xANI, så dette grafikkort er ikke ramt på samme måde som X800XT.
Anarchy skrev Saturday den 03 July 2004 kl. 23:37: [ svar | nyeste ]
"Kære" Rune.... Nu hænger verden sådan sammen, at man skal sammenligne produkter udfra samme stykke software/program/spil... Og så nytter det sgu ikke noget at være en cry-baby og kræve at X800XT skal køre på en gammel version (1.1), fordi den kører bedre på denne! Jeg har sgu aldrig hørt noget så vanvittigt før!
Samtlige HW-sites tester udstyr med programmer der har samme version, og ikke efter hvilken version der kører bedst på hvad. Det eneste der er fair, (og giver det rette resultat), er når man sammenligner hardware med nøjagtigt ens software.
Derfor er det fuldstændigt hyklerisk at sige: "Så det er muligt, at X800XT PE ikke er langsommere end GeForce 6800 Ultra SM3, blot patch 1,1 fortsat anvendes til X800XT PE"... Kun en ATi-fanboy vil sige sådan noget vås.
Jeg har fuldt respekt for folk som foretrækker et produkt fremfor et andet. Men når man den mest elendige måde, forsøger at være neutral og unbiased, så brokker jeg mig sgu!
Det er flot med alle de links du kommer med, men hvorfor linkede du så ikke til denne passivt kølede GF6800 : [url]http://www.nvnews.net/vbulletin/showthread.php?t=31180[/url]
KAN DU SIGE 0 dB !?
Og du undlod fuldstændigt at kommenterer ATi elendige "support" på linux-drivere. Hvorfor? Mangler du links?
Rune skrev Sunday den 04 July 2004 kl. 11:37: [ svar | nyeste ]
Intet 6800 Ultra ankommer aktuelt med 0 dB kølesystem, og diskussionen omhandler her udelukkende 6800 Ultra mod X800XT, men det kan selvfølgelig være muligt, at et 0 dB kølesystem senere vil ankomme også til 6800 Ultra. Mit indlæg var udelukkende rettet mod, at du påstod, at ATi X800XT larmede mere end 6800U - du skriver direkte:
"X800XT larmer langt mere end GF6800U"
Kan du ikke dokumentere dette, så har dit indlæg ingen troværdighed, men er tydeligvis baseret på udokumenteret ønsketænkning. At du henviser til 6800 non-Ultra gør blot alting meget værre, og indikerer, at du ved meget lidt om dette emne. Mit forrige indlæg om, at X800XT-ejere med fordel burde kunne anvende Far Cry 1,1 omhandler udelukkende, at dette kan være mest fornuftige løsning, såfremt X800-ejere ønsker optimal ydelse - og ikke oplever problemer, som kan løses via patch 1,2 - det har intet at gøre med at sammenligne ydelse direkte med 6800U, så jeg forstår på ingen måde din kritik og oplever denne som komplet irrelevant.
hmmm... der er bare nogle som ikke kan lade vær'....
... og så kalder du Rune biased?!. jeg gidder ikke engang kommentere yderligere på dit indlæg, som i øvrigt er skrevet i et "toneleje" som ikke hører hjemme her.
0x50c46c98.arcnxx10.adsl-dhcp.tele.dk skrev Sunday den 04 July 2004 kl. 01:29: [ svar | nyeste ]
Ang. Anarchy's toneleje, utroligt at se hvordan mennesker der helt sikkert normalt er anstændige kan blive til monstre når de får lov til at være anonyme.
GWiZ skrev Sunday den 04 July 2004 kl. 04:47: [ svar | nyeste ]
Kære Anarchy.
Det link du poster mht. lydniveau:
http://www.nvnews.net/vbulletin/showthread.php?t=31180
refererer til et 6800 NON-Ultra! Jf. kommentarerne nedenfor billederne.
Iøvrigt, hvis man kan sætte en Heatpipe på en 6800U, kan man også sætte den på en X800XT, da X800XT udsender mindre varme.
"Derfor er det fuldstændigt hyklerisk at sige: "Så det er muligt, at X800XT PE ikke er langsommere end GeForce 6800 Ultra SM3, blot patch 1,1 fortsat anvendes til X800XT PE"... Kun en ATi-fanboy vil sige sådan noget vås."
Ovenstående citat er da også noget vås! Hvis Crytek har lavet om på renderen til Far Cry, sådan at den udnytter SM3.0, kan det godt nedsætte hastigheden for kort der kun bruger SM2.0, med mindre renderne er helt uafhængige af hinanden, sådan at intet er ændret på SM2.0-siden. Under alle omstændigheder er det da ikke hyklerisk? Der er da også mange der sidder og fifler frem og tilbage med driverversioner for at få FPS'en liige den ekstra tand op... er det også hyklerisk?
Er du ikke selv hyklerisk, når du flæber op om "Ati-fanboy... ati-fanboy" når du åbenlyst selv er nVidia-fanboy? (eller rettere, tonelejet antyder at du er det)
"Samtlige HW-sites tester udstyr med programmer der har samme version, og ikke efter hvilken version der kører bedst på hvad. Det eneste der er fair, (og giver det rette resultat), er når man sammenligner hardware med nøjagtigt ens software."
Hvad så med drivere? Skal de også være ens? Hvad så med spil der har specifikke rendere som f.eks. Doom3? Skal de påtvinges at køres på samme render? I så fald hvilken? Er det ikke mest fair at man for hvert kort finder det sted, patch-niveau osv. hvor de yder bedst? er det ikke det vi (brugerene) gør i sidste ende alligevel?
Nuvel, jeg synes nu ellers at hardwaretidende holder sig fint neutrale.
For mit vedkommende er Far Cry nu også et overstået kapitel, et rigtig godt kapitel, men overstået, så SM3.0 understøttelsen er i mine øjne ikke særlig relevant. Jeg venter nu mere på (snart?) at se nogle resultater fra helt nye spil (HL2, D3 etc.) der understøtter SM3.0 (og gerne 3Dc) fra fødslen, før jeg afsiger nogen dom over både 3Dc og SM3.0.
GWIZ ->
Jeg ved GODT at jeg linker til et NON-ultra.... ffs... wake up!
""Iøvrigt, hvis man kan sætte en Heatpipe på en 6800U, kan man også sætte den på en X800XT, da X800XT udsender mindre varme."" OMG... Ja hurra, men Galaxy er de første så vidt jeg kan se, der laver passiv køling på et next-gen. kort. Så Runes postulat om at ATi larmer mindre holder ikke, da man kan få 6800 til 0dB.
Og den der med versioner, hentyder jeg for helvede da ikke til drivere!!! Det er versioner af selve benchmark-softwaret. Hvordan du kan misforstå det, er utroligt... Eller så VIL du bare ikke forstå. Hvis man bencher 2 gfx-kort med eksempelvis FarCry. Så er det ABSOLUT påkrævet at begge benches med samme version (1.1 eller 1.2). Og ikke 1.1 på X800XT og 1.2 på GF6800!!! Det er jo vanvittigt!
""Er det ikke mest fair at man for hvert kort finder det sted, patch-niveau osv. hvor de yder bedst? er det ikke det vi (brugerene) gør i sidste ende alligevel?"" Ja når man GAMER.... Men til benchmarking er det fuldstændigt vanvittigt og vil 100% høre under kategorien cheat/fake. Det vil svare til hvis man testede 2 ens biler hvor hurtigt de var fra 0 til 100. Den ene putter man 200kg vægt i bagagerummet og den anden intet. Når man sammeligner noget, skal det testes udfra samme grundlag.... punktum. Og så kan en udtalelse om at "X800XT kører bedre på 1.1", stikkes skråt op... Det er jo komplet irrelevant for benchmarking!!
Mit toneleje er affødt af den provokation Hardwaretidende lægger for dagen. Et totalt biased site.Fy for pokker...
Til sidst... Anonymiteten udnytter jeg ikke. Jeg skriver bare min mening. Det er klart at jeg ikke poster min mailadresse. Iøvrigt har jeg ikke sat hak i fluebenet "anonym" da jeg oprettede samtlige af mine indlæg....
Hehe... endlig en der kan forstå min mening om det her...
Ifølge HOL, har de også skrevet at: 3dc-effekter kan laves med ældre komprimeringsmetoder. lidt ligesom SM2.0 og SM3.0. Jeg kunne forstille mig, at farcry har fået lidt mere avancerede shadere, og at ATi dermed er nød til at lave dem i two-pass, hvor et nvidia kan lave dem i one-pass. (min teori) Som giver X800 lidt langsommere performance.
Nu findes der jo ikke mange linux-brugere endnu, men rigtigt! nVidia har understøtter linux meget bedre. ATi har dog en vis forkærlighed, for et system der er endnu større!! MAC! Her plejer de vist at have bedre styr på driverne.
Men jeg synes også at tonen er: at ATi er bedst!! og det nvidia har gjort bedre, bliver kritiseret, og skudt i jorden. Jeg synes den her side, trods sin uafhængighed har taget parti om ATi!! Og det finder jeg også ærgeligt.
Der er ikke mange der nævner funktioner i nvidia Series6, som hardware-motion-blur og soft-shadows, og her for nyligt SLI-funktionen. Mange vil argumentere for prisen mod SLI. Men tidligere forsøg med det samme (voodoo2SLI) tydede på, at vil man ha' det hurtigste, køber man det hurtigste. Eller rettere, der bliver i hvertfald solgt ligesom mange Geforce6800SLI som de almindelige. For har man tænkt sig at bruge så mange penge, kan man oftest også dobble-up!!
Hvorfor er SLI til GF6800 ikke blevet nævnt endnu her på hardwaretidende?? Det må da siges at være RIIIMELIGT innovativt ifht. ATi. Sidst vi havde SLI var i Voodoo-dagene.
Hvorfor fortjener en nyhed om næsten fordobling i perfomance, ikke en artikel her på hardwaretidende??
Kast nu den påklistrede unbiased-rolle fra Jer.... Her stinker jo at fanboyisme... At man ikke engang poster news om nVidia-teknologi...
tsk tsk...
Rune skrev Sunday den 04 July 2004 kl. 13:56: [ svar | nyeste ]
Atter en gang uigennemtænkt ævl; vi publicerer ikke en artikel om grafikkort, som ikke er blevet testet af uafhængige testsites - gjorde vi dette, ville vi netop opføre på en måde, som nok ville karakterisere disse "Fanboys", som du selv er inde på. Når resultater ankommer med GeForce 6800 SLI fra uafhængige testsites (og ikke inhabile propagandamålinger fra Nvidia), så publicere vi gerne en artikel herom. Havde du sat dig blot en smule ind i tingenes tilstand, ville du vide, at vi har publiceret talrige henvisninger til artikler om GeForce 6800 SLI i forbindelse med kommentarer til denne artikel:
Jeg er ved at være NOGET så træt af denne "fanboy-mentalitet". fanboys finder man mange steder i samfundet, og mange steder er det helt forståeligt. det er naturligt at holde med et fodboldhold, at gå i en bestemt slags tøj, at køre i et bestemt bilmærke. ja, sågar have en bestemt religion. men PAS PÅ! det er ikke alle steder at "fanboy-mentaliteten" hører hjemme. et af de steder er hardwareområdet. her MÅ førsteprioriteten da være at have det hurtigste/bedste stykke isenkram. om der så står ati/nvidia eller Intel/amd er underordnet. her kan man ikke bruge fanboy-indstillingen til noget konstruktivt. det er ikke en konkurrence! det er ikke religion!
så jeg vil gerne opfordre alle til at se bort fra hvilket mærke der sidder på grafikkortet, og koncentrere sig om det mere væsentlige.
Selv har jeg både haft ati og nvidia (og intel og amd, for den sags skyld), og jeg har haft gode erfaringer med det hele. det gælder om at se på hvilket firma der levere det bedste stykke hardware PT. jeg har set "intel-fanboys" hårdnakket påstå at prescott er LANGT bedre end amd64...
Så DROP det med fanboys! det er ved at blive sygeligt...
Og til dem der ikke har forstået det endnu: http://www.fanboyplanet.com/
Brian skrev Sunday den 04 July 2004 kl. 11:42: [ svar | nyeste ]
Hmm jeg har haft ati fra deres radeon 9700 pro tiden men må sige at jeg tror jeg skifter denne gang.
Er det rigtigt at nvidia med deres 6800 gt/ultra har puttet et par nye ting i kortet som næsten helt sikkert vil blive brugt i fremtiden.
Ati hvad er nyt i deres x800 serie ???
og hvis der er noget bliver det så brugt eller er det (bare rå power) disse kort producere
GWiZ skrev Sunday den 04 July 2004 kl. 12:34: [ svar | nyeste ]
Anarchy: Ro på. Jeg lagde bare samme tone an på som du gjorde, bare med modsat fortegn. ;-)
Grunden til jeg nævnte at du linkede til en non-ultra, var at Rune såvidt jeg kunne se kun udtalte sig om top-modellerne (hhv. XT og Ultra), hvis ikke bøjer jeg mig i støvet.
Og jeg ved godt jeg strækker den, men jeg mener nu stadig at ideen med at teste med forskellige patches er iorden. Altså i mine øjne burde alt testes på 1.0 (eller hvad den nu hedder fra æsken) så kunne man evt. bruge nyere patch hvis kortene fik højere ydelse. I den ideelle verden, ville ingen kort få lavere ydelse ved at patche op, og derfor burde diskussionen være irelevant. Men sådan er det jo (åbenbart) ikke.
Mht. SLi så er det jo ikke specielt innovativt, idet ideen stammer fra 3dfx som nVidia opkøbte. Desuden mener jeg ikke det fortjener en artikel før vi har set det i aktion.. PCI-express bundkortene er jo dårligt nok kommet ud endnu.
Alienware har jo iøvrigt også pønset på det samme, hvor man bare skal bruge 2 ens kort (ikke nødvændigvis nVidia).
Mht. til de (mange!) andre funktioner som 6800 kan, så tror jeg simpelthen at grunden til at der ikke er artikler om dem endnu er fordi vi ikke har set dem i brug.
Den eneste nye feature i ATi's chip er jo faktisk 3Dc, og jeg tror det er derfor den er blevet nævnt meget (og hypet fra ATi).
Personligt tror jeg nu også at nVidias chip er meget bedre end ATis, men den har ikke fået strukket musklerne endnu. (Go driver-udvikling!)
Kiwi skrev Sunday den 04 July 2004 kl. 12:38: [ svar | nyeste ]
Med hensyn til komprimerings metoder: DXTC & S3TC kan også komprimere normal maps i forholdet 1/2, men der er stort kvalitets tab og risiko for artifacts. Iforhold til det skulle 3DC kunne komprimere 1/4 med minimalt kvalitetstab og ingen artifacts. Så JA, et 6800ultra komprimerer selvfølgelig også sine textures, som alle andre kort... Men 3DC er DXTC/S3TC overlegent og vil kunne kunne lave en detajlegrad på textures som ikke kan opnås på 6800 256mb kort med de gamle metoder. Det store spørgsmål er ikke om 3DC kan bruges til noget, for det kan det i høj grad. Det er nærmere om der er villighed til at udnytte denne nye teknik.
Med hensyn til Far Cry patch 1.1 vs 1.2 så er det ikke normalt at en patch medfører lavere ydelse samt artifacts (ja, der er også artifacts på X800 med den nye patch). Hvad grunden er kan der kun gættes om, men jeg tror næppe det er multipass der har skylden. Instruktionerne er slet ikke oppe i en klasse hvor multipass er nødvendigt. Men med mindre Crytek er totalt i lommen på Nvidia vil der nok komme en patch som retter artifacts samt ydelses problemer med X800, indtil da har jeg bestemt ikke dårlig samvittighed over at sammenligne X800 1.1 med 6800 1.2.
Mht. 6800 SLI er det foreløbigt kun et promotion stunt fra Nvidias side, der findes hverken drivere eller hardware der understøtter SLI (tumwater bundkortet er efter mine oplysninger en preview model?). Desuden kan X800 også køre parallelt via Alienwares løsning (de har endda mulighed for samtidig kørsel med op til 4 kort). Så parallel drift er ikke noget unikt for 6800. Hvis der begynder at komme mainstream bundkort med 2x PCI-X 16 porte, vil der sikkert også komme hardware til at køre X800 i parallel drift. Men lad os se til efterår/vinter hvor bundkort der understøtter det skulle være i handlen :-)
Mht. diverse andre ekstra funktioner i de to kort vil fremtiden vise hvad der er hurtigst. Diskussionen i denne tråd er vel også mest 3DC vs SM3.0 som er de "store" nyheder på de to kort.
Som de fleste andre seriøse mennesker herinde venter jeg stadig på de nye 3D spil, før jeg bestemmer mig for hvilket high end kort der skal sidde i min computer.
Skøt skrev Sunday den 04 July 2004 kl. 13:19: [ svar | nyeste ]
Bare lige for at spille "kloge Åge", diskussionen om sm3.0 vs. 3dc høre vel egentligt til i tråden: "Forskelle på Radeon X800 og GeForce 6800 hinsides ydelse og effektforbrug" ?
Derudover er jeg iøvrigt 100% enig i dine kommentare om 3dc & sli :)
SLI er hardwarebaseret, en del i chippen, så det burde bare køre!!
Der er også forskel på SLI fra nvidia og alienware. alienware bruger en ekstern chip, til at dele signalerne osv. alienware's er også 50/50 til grafikkortene. nvidia's deler ydelsen op efter detaljegrad. og bruger variable procent-andel. Alienware skulle faktisk ha udtalt, at hvis nvidia's løsning er hurtigere end deres egen, ville de benytte nvidia's udgave!! og bruge deres egen til ATi/XGI og hvad der eller nu måtte være!
GWiZ skrev Sunday den 04 July 2004 kl. 12:50: [ svar | nyeste ]
Anarchy. hvad er det dog for et sprog du bruger. du lyder som en der ikke kan snakke på et roligt niveau.
det eneste du gør ved dette er da at folk springer dine indlæg over, kom ned på et plan hvor du ikke sviner folk til så kan man snakke med dig.
det som sker herinde er en måde at se tingene på og kan du ikke lide den måde hvorfor er du så her. HTW og rune/jesper giver os en god mulighed for at vælge det bedste kort efter deres artikler. du får samtidiget link og billede fra hvor man laver artiklen fra, så du slet kan går ind og se at det ikke bare er rygter (red_martians har set dig kommenterer HTw på overcloking.dk) så er det muligt at diskutere tingene ud derfra.
jeg synes bare denne artikel, for at skrive noget om emnet, viser at før man får kortene i hånden og vi får nogle spil af de nye(half live 2 og doom 3) så er disse nye tiltag ikke særlige aktuele endnu........
Jeg beklager mit hårde sprog. Jeg bliver bare hurtigt tændt, når jeg føler mig provokeret.
Sorry..
Men jeg fik vist mit budskab ud :/
På den anden side, så er det vist godt at der kommer noget balance her på boardet. Hvor ville det dog være kedeligt hvis hele bundet var nogle indskrænkede "ATi-rygklappere". GF6800 er mindst, MINDST ligeså godt som et X800XT.
Rune skrev Sunday den 04 July 2004 kl. 14:19: [ svar | nyeste ]
"GF6800 er mindst, MINDST ligeså godt som et X800XT"
Se det ville være et helt andet perspektiv, som jeg ikke ville være uenig i (jeg går ud fra, at du med GF6800 mener "GeForce 6800 Ultra"). Aktuelt hælder jeg selv meget mod GeForce 6800 Ultra (dvs. fra Asus, MSI eller Leadtek, som ser ud til at larme under 30 dBA med luftkøling) som mit næste grafikkort, såfremt Doom3 bliver markant hurtigere end på X800XT PE og ydelse i Half-Life 2 svarer til X800XT. Nvidia understøtter også fortsat Win9x/ME via deres drivere, mens ATi X800 kræver Win2000/XP (ATi har fjernet X800-driversupport til ældre styresystemer - og eftersom jeg fortsat har fuldt funktionelt Win98-styresystem med mange specielle/ældre programmer installeret, så er dette ikke helt ligegyldigt efter min opfattelse). Jeg tror ikke, at du finder ATi-rygklappere her på sitet - at give kr. 5.000,00 for et grafikkort vil formodentlig betyde, at mange personer vælger det grafikkort, som tilbyder bedste kvalitet og ydelse fuldstændigt uden hensyn til, hvilket navn der står på VPU'en.
Satyr skrev Sunday den 04 July 2004 kl. 14:53: [ svar | nyeste ]
Lol,så væltede der lige et læs teens ind fra overclocing.dk, hvis de da så bare kunne blive der og holde kæft. I skulle nødigt snakke om at være biased, nvidioter
satyr, hvad har du gang i. manden har lige givet en undskylding. du fremstiller dig som dem du brokker dig over.
Anarchy. har nu læst på det som du brokkede dig over rune ikke tog med. det der SLI, som de skriver på hardtop.com (hvis nok) så er det noget som slet ikke er testet men ligger på det teoriske plan. og indtil det kommer på så har det jo intet med nuværende kort at gøre.
men hvis det kommer så bliver det da godt. kan godt huske dengang jeg havde en matrox g200 og et voodoo kort i min amd k6-350(hvis nok sådanne den skrives) og det gav totalt grafik dengang.
så lad os nu holde os til et godt og sobert sprog og lærer af hinanden og hvad som kan give os de bedste pc til de bedste spil.
Satyr skrev Sunday den 04 July 2004 kl. 19:38: [ svar | nyeste ]
nej, drengen undskyldede for hans sprog, han er stadig lige så biased som før. Desuden så nej, jeg fremstiller mig ikke som dem jeg brokker mig over. Jeg kaster ikke rundt med mit bræk til højre og venstre og piver over hvor useriøst sitet er, til forskel fra andre individer. Desuden så er SLI testet, det blev vist på en messe, og nvidia har givet en score på 21xxx i 3dmark2k3, med 2 6800. Og køb dig en ordbog...
hvad skal jeg med en ordbog ? har ikke brugt for at vide hvilken underlige navn du kaster med.
ang sli så er der meget langt fra en messe til at jeg har det i mine hænder. jeg vil se det før jeg tror på det.....
Rune skrev Sunday den 04 July 2004 kl. 21:46: [ svar | nyeste ]
SLI er komplet irrelevant mht. ovenstående artikel, derudover beskæftiger vi os normalt ikke med principielt ligegyldige syntetiske testresultater her på sitet (eftersom disse kun sjældent korrelerer med ydelse i aktuelle 3D-spil), men kan det interessere enkelte, så opnåede GeForce 6800 Ultra SLI en score på 20185 i 3DMark03 (på ukendt platform i ukendt skærmopløsning, dog formodentlig 1024x768):
Flere kommentarer til ovenstående artikel bør være direkte rettede mod Shader Model 3 eller ydelse med X800XT PE eller GeForce 6800 Ultra i Far Cry, ellers risikerer disse at blive slettet. Ønsker man længere tråde om perifære emner, kan man naturligvis frit oprette basis for sådanne diskussioner i vores forum:
Ust skrev Sunday den 04 July 2004 kl. 22:47: [ svar | nyeste ]
Undskyld jeg lige hurtigt blander mig i...."diskussionen"; men Rune var det nu nødvendigt at høre, hvad Webmaster'en foretrækker af de to nye grafikkort?
Ved godt du bruger,efer min mening, synonymet "hælder", men jeg syntes bare at udtalelsen bryder noget af det meget omtalte objektivitet, som ellers så fint hersker her Site'et.
Det er sætningen her jeg hentyder til:
Aktuelt hælder jeg selv meget mod GeForce 6800 Ultra...
Selvfølgelig kan og skal du ikke holde dine menninger tilbage, men tror bare godt at ovennævnte udtalelse kan påvirke en del læsere, ved selvfølgelig heller ikke om det er din hensingt..(Ej selvfølgelig er det ikke det, kunne bare ikke dy mig)
Jeg venter Rune, sæt mig på plads med dine fine links og udtalelse som du altid gør =)
Rune skrev Monday den 05 July 2004 kl. 00:09: [ svar | nyeste ]
Vi er bestemt ej heller neutrale, men søger altid at favorisere de bedste produkter. Såfremt Shader Model 3 (SM3) kommer til at betyde meget i kommende spil, så vil grafikkort med dette naturligvis blive favoriseret, men gælder det samme for 3Dc mm., så gælder det omvendte - eller grafikkort med 3Dc eller SM3 vil kunne opfattes som lige gode (hvilket vel er den aktuelle situation grundet begrænset bevismateriale). Bemærk dog forudsætningerne i min forrige kommentar, dvs. jeg står selv til at skulle købe nyt grafikkort, og hvad jeg skriver er reelt blot, at jeg vil lade spil som Doom3 og Half-Life 2 få afgørende betydning for dette valg. Skulle der snarligt udkomme bevis på, at SM3 medfører markant forskel i billedkvalitet eller ydelse i STALKER, så vil jeg naturligvis også opfatte dette som særligt interessant. Men skulle Doom3 blive 50% hurtigere på 6800U ifht. X800XT PE, og Half-Life 2 blive 40% hurtigere på X800XT PE ifht. 6800U, så ville grafikkortet med laveste støjniveau samt effektforbrug nok virke mest attraktivt efter min opfattelse - men sluttelig må det naturligvis være op til den enkelte at vurdere, hvilke aspekter ved moderne grafikkort, som har størst betydning. Interessant bliver dog at se, om tendensen i Far Cry (mht., at 6800U + SM3 medfører tilsvarende hastighed og billedkvalitet som X800XT PE + SM2) vil kunne opleves i andre kommende spil - eller om 6800U + SM3 mere vil tilbyde flottere billedkvalitet på bekostning af ydelse, men det må tiden vise.
Det er da rart at vide, hvilket kort Rune er kommet frem til på baggrund af alle de test han har læst sig igennem - så er han da ikke helt galvaniseret.
Mit næste kort bestemmes ikke af religion, men pris/performance forholdet - og det behøver ikke være Asus eller MSI - mine hidtil bedste kort har været relative små bambusfabrikanter - den værentlige del af designet ligger alligevel fast, og jeg remodulere gerne de sidste detaljer som f.eks køling
Ligesom Ust, kunne jeg godt tænke mig at høre hvorfor og hvornår Rune skiftede meningen fra X800 XT. For var det ikke det han gjorte? I X800 XT vs. Geforce 6800U artiklen kan jeg da huske, at han sluttede af med noget i stil med "..og det efterlader X800 XT som det tilsyneladende mest attraktive kort over Geforce 6800U."
Anyway, så tror jeg også at det bliver et Geforce 6800U her til mig, men jeg er endnu ikke 100% sikker. Det er jo ikke nær lige så nemt, som dengang man skulle vælge mellem Geforce 5900 Ultra og Radeon 9800 PRO. Men udfra alle de tests og reviews jeg har set her på nettet er det blevet rigtig svært, selvom min tanke nok mest er denne nu: "Alt i alt er der altså ikke SÅ stor forskel på X800 XT og 6800U's performance. Til gengæld understøtter 6800U SM3.0, og det ville være en ærgelig fornemmelse at sidde i S.T.A.L.K.E.R., LotR: The Battle for Middlearth eller lignende spil, uden at kunne slå det hele til, fordi man købte et X800 XT dengang, pga. nogle få procent bedre performance. Til gengæld ville det jo også være lidt ærgeligt om SM3.0 ikke for alvor bliver taget i brug i større spil før om et par år, og så man sidder i Half-Life 2 (et spil, som jeg stadig ser ekstremt meget frem til), hvor man ville have haft en del bedre performance med et andet kort."
Osv. osv... tankerne kører jo rundt i hovedet på én, så jeg har bestemt mig for at vente med at købe grafikkort lidt endnu. Så bliver de jo både billigere, og så kan det jo også være at der er kommet nogle flere store spil ud og flere tests, som gør det nemmere at træffe den rette beslutning. Men indtil videre står min pung på 'Stand by', mens jeg lige nu, ligesom Rune, hælder lidt imod Geforce 6800U af nævnte grunde...
Der nævnes også at fremtiden vil give os en seperat 64-bit version af Far Cry. 64 bitteren vil ikke have BEDRE effekter, men den vil kunne vise FLERE effekter samtidigt på skærmen.
Mht hvor langsomme udviklerne er til at lave patches så fortælles der i artiklen at det tog 2 mand ca. 2 uger at lave hele 1.2 patchen. Derefter brugte de 2 uger på test og er nu klar til at udgive den. Hvad resten af tiden er gået med kan man så kun gætte på, men et realistisk bud kunne jo være at de har brugt en del tid på E3 messen. Den kræver trods alt massevis af forberedelse med demoer, film, pressemateriale og lign.
Faktisk er det ikke særligt pænt at brokke sig over tidsforbruget. For I aner jo intet om hvad der foregår bag deres lukkede døre. Som nævnt kunne E3 messen være en tidsrøver. Noget andet kunne være en kommende udviddelse eller en Far Cry 2 man går og pusler med. De 2 der lavede patch 1.2 var måske først bundet op på en kodestump, som andre personer er afhængige af de næste 6-12 måneder. Det er jo et spørgsmål om prioritering der som i alle andre virksomheder.
Ra skrev Monday den 05 July 2004 kl. 12:22: [ svar | nyeste ]
Selvfølgelig kan vi tillade os at være utålmodige!!!
Det er det hotteste spil på markedet nu, og de vil lave nogle særlig flotte tilføjelser der gavner de nyeste grafikkort. Hvis 2 mand virkelig kan gøre dét på 2 uger synes jeg firmaet skulle have smæk for ikke at få det på gaden rigtig hurtigt før folk blev trætte af spillet!
Rigtig dårlig prioritering må man gerne kritisere (personligt tror jeg det er løgn at det var så let at lave/teste, men der er jo store interesser i spil).
Ra - Jeg tror ikke alle ATI drengene er enige med dig. For ifølge diverse tests var der vist nogle fejl/artifakts når 1.2 patchen kørte med et X800 kort. Jeg gætter på at de folk ville foretrække en extra uges test og patching og så få et fejlfrit produkt.
Jeg har gennem mange års erfaring lært at de fleste patches er værd at vente på. Hvis det tager lidt længere tid at lave, så er der som regel en god grund. Og du ved jo nok hvor meget brok der efterhånden findes omkring halvfærdige produkter.
Rune, jeg foretrækker snart at du sletter indlæg fra folk, som kun ønsker at kaste med mudder, og ikke har noge konstruktivt at byde på, eller spørgsmål de ønsker hjælp med.
Efter min mening er konklusionen på X800XT PE vs. GF6800UE, at der ikke er nogen konklusion endnu. Personligt vil jeg vente til der kommer spil som faktisk får noget positivt ud af SM 3.0. Fakta er at 800 ser hurtigst ud med aktuelt software men at at 6800 ser mere fremtidssikret ud. Men hvis SM 3.0 i fremtiden giver tilsvarende ubetydelige forbedringer som set i FarCry, kan 800 gå hen være det bedste kort i denne generation. For detaljer:
Anandtech har iøvrigt lavet en fejl i den oprindelige test. Jeg kan ikke huske om det har været kommenteret, men jeg gider ikke læse alle "teenage idol" indlægene igennem for at checke det:
"UPDATE: It has recently come to our attention that our 4xAA/8xAF benchmark numbers for NVIDIA 6800 series cards were incorrect when this article was first published. The control panel was used to set the antialiasing level, which doesn't work with FarCry unless set specifically in the FarCry profile (which was not done here). We appologize for the error, and have updated our graphs and analysis accordingly."
"For a more positive update, after a discussion with CryTek about the new rendering path, we have learned that the lighting model implimented in the SM3.0 Path is exactly the same as was used in the SM2.0 Path. The only exception is that they used the conditional rendering (branching in the pixel shader) to emulate multipass lighting in a single pixel shader. The performance gains we see actually indicate that PS3.0 branching does not have as significant a performance hit as previously thought (and proves to be more efficient than using multiple pixel shaders in a scene)."
Endnu et eksempel på manglende udskillelse fra SM 2.0 til 3.0.
Med hensyn til hvad Rune hælder til og ikke hælder til, så mener jeg bestemt det er interessant. Det hører måske ikke hjemme i artiklerne, og der mener jeg nu heller aldrig at have set det. Men det er interessant at høre hvilket harware "guruen" selv vil vælge når de surt sammenskrabede kroner skal spenderes.
Jeg har aldrig opfattet det som om HT var ATi biased, men i det sidste års tid er de fleste tests bare faldet ud til deres fordel. Det burde kun opfattes som et - så realistisk som muligt - billede af, hvem der fører kampen pt.
Hvis skal have hurtig hardware i al fremtid skal kampen helst aldrig svinge ret langt væk fra 50/50.
......men om 800 understøtter Linux eller ej.......? Hvem køber en 5.000 kilo 3D accellerator for at køre Linux?
PS: Hvis der er nogen der har lyst til at flame mig, kan i gøre det på min private email. Så er andre fri for at spilde tid på at læse det!
Skøt skrev Monday den 05 July 2004 kl. 16:16: [ svar | nyeste ]
Hej kim
Helt og aldeles enig omkring umoden sprogrbrug og argumentation, det at det forekommer sjældent her på sitet, er netop en af de ting der gør hardwaretidende til en af mine foretrukne sites.
Også enig i at x800xt(pe) pt. (og formentligt også på længere sigt) ser ud til at være lidt hurtigere end 6800u, men nu er min personlige kæphest x800pro/6800gt segmentet, og her er min fornemmelse faktisk at 6800gt er en anelse hurtigere end 800pro overall.
Jeg er 100% ligeglad hvad mærke der kommer til at stå på mit kommende grafikkort, og jeg har ikke beslutte mig endnu, men lige pt. ser 6800gt mere attraktivt ud i mine øjne, pga. 16pipes, pæne overclocks uden bios/hardware modifikation, linux driver support og sm3.0. - minus siden er så; ingen 3dc, og bøvl med en "after-market køleløsning".
Har i øvrigt skrevet til Ricke hos valve-software (Senior Engineering Lead) for at høre hvordan de vil understøtte 3dc (performance-gain eller ekstra detaljer på normal.maps) idet jeg formoder half-life enginen vil blive brugt meget i fremtiden til mods og nye games (med valve's engine). Det er måske lidt naivt, men det lader faktisk til at valve.personalet ofte besvare sådanne fan-spørgsmål.
Hvis nogen tør spå lidt om hvilke andre engines (udover doom3) der vil blive anvendt de næste 1-3 år, så høre jeg meget gerne om det? - idet jeg prøver at vurderer den fremtidige udbredelse af 3dc som "extra eye candy" feature, da det pt. er min største bekymring ved at vælge 6800gt.
Mick skrev Monday den 05 July 2004 kl. 11:57: [ svar | nyeste ]
Jeg deler fuldt ud dine synspunkter, Kimi. Hvorfor nogen har så ondt i røven af hvad andre vælger af graffikort er en gåde - det er lige så TÅBELIGT som enhver anden religionskonflikt.
Helt OK for mig hvis Rune sletter indlæg af folk der får et kick ud af at flame andre. Hvis man ikke kan styre sig selv og sit temperament har man andre problemer end med at afgøre hvilket grafikkort der er det bedste...
Personligt ser jeg også kampen som meget lige. Hvert kort har sine fordele/ulemper. Sålænge ydelsesforskellen er så lille (specielt set i lyset til begge korts foregængere) må man se på hvad man kan forvente at få ud af kortet i dets levetid. Her tror jeg at X800 klarer sig ganske fint trods den manglende SM3.0 understøttelse.
Jeg vil selv vælge mig et X800 PRO i første omgang grundet pris/ydelse forholdet. Og så senere måske skifte til 6800 Ultra (når der kommer et tætved-lydløst et af slagsen til en fair pris).
Men såfremt der ikke er flere *real life* fordele ved SM3.0 (end dem vi har set indtil nu) kan vægtskålen dog tippe til X800 XT PE's fordel.
I hvert fald er jeg alt andet end imponeret over hvor hurtigt vi har set SM3.0 patches samt effekter af samme - det virker IKKE som om det er nemt at implementere SM3.0 (taget i betragtning hvor meget hype der har været og hvor lidt vi har set til SM3.0).
Så måske er 3Dc en fjer i hatten for ATI - mere end SM3.0 er for NVIDIA (trods de mere avancerede tekniske specs)? Omvendt har ATI vist nogle flaskehalse i R420 når de ikke (trods den bedre fillrate) kan yde bedre end de gør (trods alt!).
Rune skrev Monday den 05 July 2004 kl. 14:41: [ svar | nyeste ]
Firingsquad har interviewet udviklerne bag Far Cry - her er en appetitvækker, som dog næppe vil gøre valget mellem NV40 og R420 nemmere:
"FiringSquad: Well, the 5900 series also supports FP32, so will those cards support HDR as well or will it be a feature unique to the 6800 cards?
Cevat Yerli: Yes it’s unique to the 6800 series because of the blending capabilities.
FiringSquad: Are there any plans to incorporate 3Dc into Far Cry?
Cevat Yerli: In fact yes. In the next patch, 1.3.
[...]
FiringSquad: Oh really, you’re at 96 instructions with 2.0 [=Shader Model 2, red.] now?
Cevat Yerli: Yes, and we’re not using more because we don’t need more. If you look at the image quality you can achieve with 2.0 – with 2.0 you can achieve pretty much any quality you want for right now. And the key benefit between 3.0 and 2.0 is performance really and so we’re using 3.0 for performance gains, not an image quality gain. The image quality you can achieve with 2.0 is good for now so there won’t be any real technology differences other than the performance difference." (min fremhævning, red.)
gandalf, han har da svaret i et indlæg længere oppe.
det skulle være nr 10 hvis du tæller nede fra.
Skøt skrev Monday den 05 July 2004 kl. 16:32: [ svar | nyeste ]
Nu skal folk jo nok selv læse interviewet, men jeg faldt da lige over disse to spørgsmål og svar, som jeg syntes er interessante:
FiringSquad: How long did it take to integrate SM 3.0 into Far Cry?
Cevat Yerli: The first version of it was pretty much done in 2 weeks up and running, but overall we spent approximately four weeks with two guys.
FiringSquad: One new feature NVIDIA has added to GeForce 6800 is support for HDR. How does NVIDIA’s solution differ from ATI’s?
Cevat Yerli: It’s more about the FP16 versus FP32 format. We’re using it [FP32] for HDR, which is not supported by ATI. That is to deliver very high image quality. But, I have to tell you HDR isn’t officially going to be part of the 1.2 patch.
FiringSquad: Do you plan on adding high dynamic range lighting (HDR) in the future?
Cevat Yerli: Yes definitely. It’s going to be officially supported in 1.3. Which will be coming out hopefully soon. [laughs] The reason why it’s not enabled now is because there are quality issues we have to check, we have to go back and look at it because it's a content-specific application. The technology works but it requires the content to be adapted to it, otherwise you have overexposure, you have too many objects on the screen glowing and things like that. And while that looks cool on screenshots, when you’re playing that’s not as cool. So we need to tweak it and make sure it matches the content.
Især det sidste med over-eksponering, det kunne jo meget vel forklare de utroligt flotte, men tydeligvis "overeksponerede" screenshots, det har flydt rundt på nettet op til release af 1.2 patch, hvis i ikke ahr set dem, kan de fx. ses her:
http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&no=507
Der var stor diskussion om hvorvidt de var ægte, eller et produkt af kreativt photo-shop svindel :-)
Mads skrev Monday den 05 July 2004 kl. 18:02: [ svar | nyeste ]
Konklusionen lyder noget i denne stil:
"NVIDIA and Crytek have shown that SM 3.0 can indeed lead to performance improvements over an SM 2.0 implementation. This conclusion flies in the face of what ATi has been preaching for the last few months. In many of our FarCry tests, the NVIDIA cards can now pull ahead of their rivals from ATi. The GeForce 6800 GT makes an especially convincing appearance here, especially considering that, at $399, it costs just as much as its direct competitor the X800 Pro. "
Wow, det giver et HELT andet billede end det i artiklen her. Forklaring, Rune? ;P
Rune skrev Tuesday den 06 July 2004 kl. 11:30: [ svar | nyeste ]
Jeg tror ikke, at jeg forstår spørgsmålet - dvs. GeForce 6800 Ultra SM3 vandt markant sejr både hos Tom's Hardware samt i de resultater, som vi opnåede via udregninger fra Anandtech og Tom's Hardware i ovenstående artikel. Endvidere har Tom's Hardware ikke testet i 1600x1200, men kun i 1024x768 og 1280x0124, hvorfor man generelt ikke kan sammenligne resultater fra ovenstående artikel direkte med resultater fra Tom's Hardware - selvom tendensen er den samme. Interessant ved artiklerne hos Tom's Hardware og XBitLabs er dog, at GeForceFX 5950 Ultra ejere og lignende taber ekstremt megen ydelse via patch 1,2 - så patch 1,2 kan meget vel kun gavne ejere af NV40, men derimod være til stor skade for ejere af NV3x:
Lige så meget som NV40-ejere kan juble over SM3-understøttelse, lige så meget har NV3x-ejere formodentlig grund til at være kede af det. Mange NV3x-ejere vil nok finde Far Cry uspilleligt med 1,2 installeret, desværre. Så patch 1,2 svarer vel til at klappe Nvidia på ryggen mht. NV40 og derefter skyde dem i foden med ganske stor kaliber mht. NV3x - men måske kommende driver-udspil fra Nvidia kan ændre på dette (eller måske har vi her forklaringen på, at patch 1,2 stadig ikke er udkommet...). Billedkvaliteten ser dog ud til at være mærkbart forbedret via patch 1,2 på NV3x, men til en pris, som de færrest formodentlig er villige til at betale.
LPDJ skrev Tuesday den 06 July 2004 kl. 11:55: [ svar | nyeste ]
Nu har jeg Dagligt læst artikler gennem et halvt år geforce vs. ATI. Jeg er ikke blevet meget klogere da de fleste udtalelser kommer fra folk der aldrig har haft nogle af dem i deres spand. Men noget har det givet mig, jeg har lært hvordan krige starter. Før troede jeg der skulle religion, eller politik til at starte en krig. Men nej venner et s.... grafikkort kan klarer det.
Ra skrev Tuesday den 06 July 2004 kl. 12:35: [ svar | nyeste ]
Tillykke med din store indsigt! Brug nu dette guldkorn til at gå ud i Verden og skabe din egen religion - start med en fodtur til Tibet, hvor du tager dig god tur til at berige alle du møder på vejen med dit klarsyn!
Mick skrev Tuesday den 06 July 2004 kl. 13:14: [ svar | nyeste ]
Lidt råt svar, Ra ;o) - men jeg er nu enig. Kommentarer bør være oplysende eller udredende - konstateringer som vi selv kan gøre gavner ingen.
Kan da lige komme med et par "guldkorn" i form af lidt erfaring med et spritnyt X800 PRO (købt af en bekendt da jeg fik et god tilbud *S*). Ellers ville jeg nok have ventet i 1-2 måneder da jeg ikke har afgjort hvad jeg helst ville have (6800 el. X800).
Men altså smed jeg det nye X800 PRO i min AMD 64 3200+ (1 GB RAM) igår.
Det er utroligt støjsvagt - og tungt! Kobbberkøleren vejer godt til *G*. Jeg er dog mere forbavset over så stille det synes at være - selv i mit low noise kabinet kan den slet ikke høres - heller ikke med siden af (!).
Og jeg skal ellers hilse og sige at der er fin *bund* i ATI's nye X800-serie. Det dykker meget sjældent ned hvor jeg kan se hak overhovedet i de ting jeg har fået testet indtil nu (dog har jeg ikke set Farcry).
Har flydende fps i 1600x1200 i FS2004 med 4xAA og 16xAF - og NFS Underground i 1280x1024 (også 4xAA og 16xAF). Også helt rart at se 3DMark03 NATURE testen køre ganske flydende nu ... ;o)
Det kan vist godt holde i nogle måneder i min maskine - indtil der kan findes et helt støjsvagt (eller lydløst) 6800 GT til en rimeligt pris idet jeg faktisk tror at der er lidt mere endnu at hente i SM3.0 (gætter på 5-10% mere).
Det vi bliver bedt om at vælge imellem er SM3 og 3dc. Det er ud som om at der, på dette tidlige stadie, er mest support fra spiludviklernes side til SM3. SM3 bliver prioriteret før 3dc også af CryTek.
Min næste kort bliver vist et 6800 GT.
Mick skrev Wednesday den 07 July 2004 kl. 13:02: [ svar | nyeste ]
Mit indtryk er direkte modsat *S* - 3Dc er nemmere at implementere (såvidt jeg da har læst) og der er også givet tilsagn fra flere spiludviklere allerede.
Skøt skrev Wednesday den 07 July 2004 kl. 14:30: [ svar | nyeste ]
Har støvet adskillige både mere og mindre seriøse forums samt "game.developer-sites" igennem, for at prøve at få et overblik over hvilken af de to features der vil blive anvendt mest, det er nærmest mit indtryk at det står lige med hensyn til udmeldinger om support for hhv. 3dc & sm3.0 både blandt eksisternede titler(pathces) og kommende.
Og med både ati & nvidias marketings-kanoner rettet mod de stakkels udviklere, så kan det være svært at lokke info ud af dem :-(
Tør heller ikke helt sige hvad der er nemmest at implementere, det er oplagt at 3dc anvendt som performance forbedring på eksisterende normal.maps opg textures er ret let at implementere, men hvis man skal til at lave nye normal.maps og textures med højere detaljegrad, så er det jo også lidt af en opgave.
Jeg tror konklusionen må være, at enten køber man nu, og tager en chance, eller også venter man og ser hvad fremtiden bringer af understøttelse, det sidste er selvfølgeligt det klogeste, men ikke det sjoveste - når man som mig sidder med et gammel ti4200 og har opggraderet resten af maskinen :(
Mick ~ det bliver lige 4200kr inkl. Forsendelse til DK - Der er ingen problemer med handel indenfor EU.
Skøt skrev Wednesday den 07 July 2004 kl. 20:53: [ svar | nyeste ]
Øhh, han medgav da vist netop at begge kort kunne fungere med passiv køling, men det er måske ikke det der sigtes til ?
Og så iøvrigt tilykke med kortet, og overclockingen :D
Er det med alle 16 pipes åbnet, og i givet fald, var det så en vivo model? og hvad kostede den?
Rune skrev Wednesday den 07 July 2004 kl. 21:02: [ svar | nyeste ]
Intet tyder aktuelt på, at 6800 Ultra kan fungere med passiv køling, det er indtil videre udelukkende GeForce 6800 (non-Ultra, non-GT) med 12 pipelines, der er annonceret med passiv køling. Så indtil videre har X800XT PE ingen konkurrence mht. passiv-køling i high-end kategorien - men hvem ved, måske der kommer passivkøling senere til 6800GT eller 6800Ultra, medmindre effektforbruget er for højt på disse grafikkort til at virke med Zalman ZM80D-HP eller tilsvarende. Jeg tror ikke, at DarkHill har købt kortet, men at han blot henviser til en forretning, hvor det kan købes (og ja, det er med alle 16 pipelines åbnede samt 525MHz VPU og 1150 MHz ram - dvs. fulde X800XT Platinum Edition specifikationer).
Skøt skrev Wednesday den 07 July 2004 kl. 21:41: [ svar | nyeste ]
Ok - Syntes bare jeg havde set en anmeldelse af en "after market" passiv-køleløsning (fra zalman?), hvor de hævdede at den kunne benyttes på 6800u, muligt jeg tager fejl - må lige som om jeg kan finde den igen.
Skøt skrev Wednesday den 07 July 2004 kl. 22:03: [ svar | nyeste ]
Havde ikke opdaget at ovenstående var et link.. D'oh !
Kan ikke finde den pågældende artikel igen, så jeg har nok taget fejl :(
Udvilker x800xt mindre varme end 9800pro?
Zalman skriver jo om ZM80D-HP:
"If you are using a nVIDIA GeForce FX5800, an ATI Radeon 9800 Pro, a Matrox Parhelia, or a more advanced model, an Optional Fan (ZM-OP1, sold separately) must be installed."
Mvh.
Skøt - der vist har dummet sig nok for idag ;)
Ra skrev Wednesday den 07 July 2004 kl. 23:15: [ svar | nyeste ]
Ja, kan ikke lige huske linket, men X800XT bruger rent faktisk mindre effekt end 9800XT!
Mick skrev Thursday den 08 July 2004 kl. 11:09: [ svar | nyeste ]
Mit X800 PRO kort køles meget effektivt af standard kobberkøleren - bemærkelsesværdigt stille. Det tyder på at varmeudviklingen ikke er helt så voldsom som hos 6800 - faktisk kan jeg ikke på udluftnings-luften mærke noget skift fra det forrige kort (9600 PRO) til det nuv. X800 PRO (havde troet jeg skulle skrue lidt op for 120 mm cooleren, men det var slet ikke nødvendigt).
Jeg har ikke købt det kort nej. Jeg har købt et vivo x800 hos datahome.dk idag, og får det imorgen.. dejligt =) Jeg regner med at det skal softmoddes til xt allerede imorgen, og senere skal jeg have en zm80D-hp på =)
Mick skrev Thursday den 08 July 2004 kl. 11:10: [ svar | nyeste ]
Jeg ledte efter "softmodding +x800", men fandt ikke lige nogen gangbar forklaring - har du et godt link ;o) ???
"Here's a demo that does dynamic branching, without the need for pixel shader 3.0, and still receives the huge performance boost that pixel shader 3.0 dynamic branching supposedly gives when utilized in a similar fashion. "
Det er jo ikke helt ringe hvis det holder - specielt hvis ATI nu samtidigt har ret i at de i seneste driver henter adskillige % ekstra performance ud af X800...
Ser ud til at det at have 2 konkurrencende producenter giver gevinst for os hardcore gamers.. *G*
har haft det testet lidt nu, det lader til det ikke er 100% stabilt @ xt hastigheder.
kører i øjeblikket med 510 på coren, hvor det virker stabilt.
får 10800 i 3dmark03 med en barton 2500+ på nforce2 bundkort
Rune skrev Thursday den 08 July 2004 kl. 19:17: [ svar | nyeste ]
For ikke at bevæge os alt for langt væk fra SM3 og Far Cry, som ovenstående artikel omhandler, så bedes diverse indlæg her venligst have blot en smule relevans for GeForce 6800 baserede grafikkort. Dvs. indlæg, der udelukkende er rettet mod ATi grafikkort, og som ikke omhandler NV40 (gerne i forbindelse med SM3 og Far Cry), bedes gerne placeret i forbindelse med mere relevante artikler eller i vores forum (eftersom der næppe er mange af vore læsere, som søger efter gode råd om X800 i en artikel rettet mod SM3 og GeForce 6800-serien).
Det vi prøver at finde ud af er jo om vi skal købe 6800 serien eller X800 serien, i denne overvejelse indgår ting som 3dc, SM3, overcloking og modding potientiale. I den forbindelse er det interessant at man kan modde et x800 pro til et x800xt, det tipper vægtskålen til x800 siden.
Men det er da rigtigt at det ikke har noget med sm3 direkte at gøre, men er mere interessant i forhold til de overordnede valg af gfx.
morten skrev Sunday den 11 July 2004 kl. 16:04: [ svar | nyeste ]
oki ved det godt jeg fatter måake ikke en pind. Men nu sidder jeg her og tænker hmm gad vide om spillet far cry er meget flotter på et nyrer grafikkort end mit gamle Ti4000. Og nu mener jeg ikke på grund af højre opløsning osv, men på grund af ting som feks Shader Model 2-3, for som jeg forstår det så understøtter mit kort nemlig ikke det. Er der en væsenlig forskel og hvor stor er den ?
Rune skrev Sunday den 11 July 2004 kl. 20:52: [ svar | nyeste ]
Forvent ikke den helt vilde forskel grundet DX9 og SM3 endnu, men med patch 1,3 vil der formodentlig være markante forskelle (patch 1,3 tilbyder specielle lyseffekter til 6800-baseret grafikkort og understøtter 3Dc på X800-grafikkort). Aktuelt vil du formodentlig opleve størst forskel i vand-effekter, dvs. du kan aktivere "ultra high" vandeffekter på DX9-grafikkort. Men ydelse burde aktuelt være største incitament for at opgradere dit grafikkort til 6800- eller X800-baseret grafikkort.
Rune skrev Wednesday den 21 July 2004 kl. 18:31: [ svar | nyeste ]
Så er patch 1,2 (65MB) udkommet og kan downloades her:
Rune skrev Wednesday den 21 July 2004 kl. 21:08: [ svar | nyeste ]
Jeg har nu testet patch 1,2 og kan ikke finde hverken fordele eller ulemper med Radeon 9700 Pro, så har man et sådanne eller tilsvarende ATi grafikkort, og oplever man ingen problemer i Far Cry, så er det næppe besværet værd at patche til 1,2. Dette er også i overensstemmelse med resultater fra XBitLabs, og som yderligere fandt, at ydelse faldt drastisk på GeForce FX 5950 Ultra og tilsvarende med patch 1,2 - så patch 1,2 ser mest ud til at være rettet mod ejere af NV40 eller personer, som har specifikke problemer i v. 1,1.
Rune skrev Thursday den 22 July 2004 kl. 14:32: [ svar | nyeste ]
Lige et par detaljer:
"FarCry 1.2 Patch Issues:
Since posting the FarCry 1.2 patch yesterday I have received a ton of e-mail from ATi video card owners saying that FarCry, once patched, is booting them back to the desktop in both mutli-player and single player games. I installed the patch myself on both an ATi 9800XT box and a GFFX 5950Ultra box and sure enough my ATi box crashes to the desktop randomly. I called tech support and was told this:
We have received an alarming number of complaints from ATi card owners that are experiencing crashes after installing the 1.2 patch. The issue is being looked into. At this time we suggest re-installing your game without the 1.2 patch.
Så har man ikke et NV40-baseret grafikkort, så er der næppe grund til at patche Far Cry til v. 1.2 - jeg har dog ikke oplevet problemer med Catalyst 4,7 og Radeon 9700 Pro, men det kan være et tilfælde.
Gandalf skrev Thursday den 22 July 2004 kl. 21:31: [ svar | nyeste ]
Rune, hvad er nu det her for noget? 1.2b path? eller hvad er det her?!?!
Rune skrev Thursday den 22 July 2004 kl. 22:44: [ svar | nyeste ]
Det kan jeg heller ikke, men det ser ud til, at patch 1,2 indeholder særlige Shader Model 2.0B egenskaber, som kan aktiveres (jeg har svært ved at læse, hvorvidt 3Dc allerede er implementeret også) - her er uddrag fra maskinoversættelse:
"On 21 July there was at long last released the official version of patch 1.2. I can only be glad at the fact that all conclusions made even in the first part of the article were confirmed, and also to the fact which for me it is not necessary to strongly complain about developers FarCry about their purely marketing behavior. But against this below in the conclusion. Thus, admirers of ATI can be glad: FarCry 1.2 are supported both the special way of rendering for shader model 2.0b and the textures, compressed with the aid of 3Dc. The special method of rendering for ATI R420 is activated, by analogy with NVIDIA by two keys: either <> or <>. For this either in the console it is necessary to introduce <> or in the command line to assign the parameter to <<"r_sm2bPath 1">> (quotation mark they are required). Moreover with start <>, by analogy with NV40, on R420 in the future drivers will be activated "duplicating of geometry". Developers FarCry, in all likelihood, send by means of the smallest resistance and with the start of the method of using shader model 2.x they limited the number of utilized lighting sources by 3 pieces for the passage. That 4 it proposed above: -). In this case a maximum quantity of utilized interpolation registers is equal to their maximally accessible quantity - 8 to pieces." (jeg har korrigeret maskinoversættelsen flere steder, så diverse parametre burde virke, red.)
Kilde: http://www.ixbt.com/video2/fc12-2.shtml
Så det ser ud til, at ejere af X800-baserede grafikkort kan aktivere 3Dc og Shader Model 2.0B rendering via specialparametre i konsollen, hvilket vel er en god nyhed - hvis det virker. Hastigheden på X800 ser ud til at være forbedret med op til hele 25%:
Så det bliver bestemt spændende at læse den engelske udgave at denne iXBT-artikel om nogle dage på Digit-Life...
Gandalf skrev Thursday den 22 July 2004 kl. 22:29: [ svar | nyeste ]
Ok, nu har jeg også postet det i forum, jeg synes nemlig det her er temmelig vigtigt...!
Gandalf skrev Thursday den 22 July 2004 kl. 23:01: [ svar | nyeste ]
Øv også! Ikke øv fordi X800 kortene nu har fået meget bedre ydelse i Far Cry, nej ØV fordi jeg nu ellers rimlig meget havde bestemt mig for et 6800 GT/Ultra kort!
Denne begivenhed i X800/6800 slaget har simpelthen sat mine købs-instinkter på standby. Jeg vil simpelthen vente en måneds tid mere og se hvad der sker. Først stor sejr til Nvidia i Doom3, nu også en rimlig god sejr til ATI i Far Cry. Selvom jeg uden tvivl vægter Doom3 mere end Far Cry, så har det nu alligevel sat et lille spor af tvivl i mig.
Oh well. Det er ud til, at jeg så bare må "nøjes" med mit 9800 PRO i Doom3 :)
Ok, bare slet forumtråden, det var kun til hvis du ikke så det her :)
Dvs. jeg kun skriver om denne sag her og ikke i tråden.
Anyway, jeg fandt nogle kritikpunkter af testen, fremsat af en forumbruger på HardOCP:
"Problems with this review:
a) It's in Russian, which I doubt any of us speak, and I don't trust Babelfish enough to get a clear understanding of their methodology.
b) The first graph seems to show an increase in the RV420 while running SM3.0, which it isn't technically capable of. Mistake one.
c) The second graph has the NV40 SM3.0 path labeled as "Enabled all features" - looks like they're comparing NV40 with all details on vs. R420 with details turned down. They ought to keep all settings the same between cards (this is the one aspect of [H]'s review system that I don't agree with). Mistake two.
c) They also don't mention which NV40 card is used - GT or Ultra. Mistake three.
I'm not an nVidia fanboy at all, I think both cards are fabulous technology, but I'm inclined to throw any results from this site the out window. If someone links to an English website benching with a more scientific approach, I'll listen.
d) Why aren't all these magical rendering improvements mentioned in the patch notes? SM3.0 support is."
Han har faktisk nogle pointer der :)
Rune skrev Friday den 23 July 2004 kl. 00:57: [ svar | nyeste ]
Ja, måske, min oplevelse er dog, at iXBT/Digit-Life er mindst lige så kompetente som HardOCP, så jeg ville nu satse sparegrisens indhold på iXBT/Digit-Life. Men lad os afventes den engelske oversættelse på Digit-Life.
Kiwi skrev Friday den 23 July 2004 kl. 08:59: [ svar | nyeste ]
Jeg kunne ikke stå for muligheden for at modde et X800pro VIVO til XT så jeg får mit kort ind af døren senere i dag, regner dog stadig med at købe et 6800 på et tidspunkt også (LAN maskinen skal jo også have god grafik). Jeg skal nok tjekke ovenstående oplysninger om det så kræver en reinstall af både Windows og Far Cry ;-)
Rune skrev Friday den 23 July 2004 kl. 12:11: [ svar | nyeste ]
Ja, det burde være ret nemt at teste, hvorvidt 3Dc og SM2.0b kan aktiveres i Far Cry 1,2 - iXBT har jo oplyst alle nødvendige konsol-parametre, så HardOCP burde selfølgelig teste om disse parametre virker, før iXBT kritiseres på spinkelt grundlag.
Du lyder lidt for rig i mine ører :P
---------------------------------------
Ok, jeg kunne godt lide tænke mig og høre hvad I synes jeg skulle gøre lige nu. Jeg har givet mig selv 4 muligheder:
1. mulighed:
Købe et Geforce 6800 GT så snart som muligt. Det kan godt være, at den ikke er lige så hurtig som et Ultra, men det er på den anden side heller ikke sindsyg mange FPS man mister i de spil jeg har set testet. Min strømforsyning burde kunne klarer dette kort? Jeg ved godt, at jeg måske har sagt det her før, men nu siger jeg det lige igen: Jeg har som sagt en 400W Nexus PSU, specs på http://www.nexustek.nl/nx4000.htm
Den giver strøm til:
Abit IC-7 Max 3
P4 3.0 Ghz (800 mhz FSB)
2X512 Kingston HyperX PC3500 DDR-RAM
Powercolor Radeon 9800 Pro
Audigy 2 ZS
Seagate 120 GB SATA
2 meget støjsvage papst kabinetsblæsere (omkring 20 db for den store, 12 db for den lille)
Så skulle den ikke også kunne klare et 6800 GT? Det tror jeg nok...
2. mulighed
Investere i en opgradering. Købe en Tagan TG480-U01 SPU, et Geforce 6800 Ultra (så snart de bliver tilgængelige) og skifte min Seagate 120 GB SATA ud med en Western Digital Raptor 74GB harddisk. Det kommer til at koste nogle penge ja, men så er jeg også godt kørende igen :)
3. mulighed
At købe et HIS X800XT PE IceQ II så snart jeg kan få fat i det. Fordelen her er jo, at jeg ikke behøver at købe ny strømforsyning, ulemperne er åbenlyse (mindre ydelse i Doom3, ingen SM3.0).
4. mulighed
At vente på HL2 benchmarks'ne og på at der kommer en støjsvag udgave af et Geforce 6800 Ultra/X800XT PE herhjemme. Tag det lidt med ro og opgradere når jeg ser tiden rigtig. Ulemperne ved denne løsning er også åbenlyse. Jeg ville ikke særlig snart få at rigtig godt kort at spille Doom3 på ;(
Det var så det. Det kan godt være at der er flere der mener 4. mulighed, men hvad så hvis I skulle vælge mellem de 3 første?
PS: Jeg håber ikke det gør noget, at jeg har skrevet det her. Jeg synes bare det er spild at lave et helt nyt topic for at få lidt rådførelse. Men flyt/slet den endelig, hvis du ikke synes den passer ind her, jeg har gemt teksen på harddisken.
Rune skrev Friday den 23 July 2004 kl. 12:12: [ svar | nyeste ]
Der netop udkommet et lille program, som kan anvendes til at teste Far Cry 1,2 på meget nem måde - jeg har dog endnu ikke prøvet dette benchmark-program, men det kan hentes her:
Dette Far Cry benchmark program kom faktisk samme dag som FC patch 1.2 udkom, og da prøvede jeg det. Ekstremt handy, der følger nogle timedemos med fra forskellige hardwaresites, og så kan den selvfølgelig afspille custom timedemos. Derudover kan man bla. vælge hvor høj detaljegrad og opløsning testene skal foretages i! :D
Mht. til mine 4 muligheder, så ville du sikkert også anbefale mulighed nummer 4, hvis jeg kender dig ret, Rune? Sagen er bare, at jeg knap kan vente mere, selvom jeg ved det er det mest fornuftige! :(
Kiwi skrev Friday den 23 July 2004 kl. 13:58: [ svar | nyeste ]
Gandalf jeg ville vælge dør 4 ;-) Mht. til din PSU har den 15A på 12V (18A i peak). 6800ultra skulle snuppe 5A, din CPU 7,5A og så en smule til harddiske, blæsere og de andre småting der kører på 12V. Alt i alt en 14-15A på 12V (i peak), så din PSU burde kunne klare et GT :-) Du skal dog nok ikke regne med at clocke ;-)
Rune jeg har allerede lavet to *.bat filer klar til Far Cry ;-) Men jeg snupper også lige programmet med hjem og kigger på det... Vender tilbage med tallene i morgen tidlig.
Kiwi skrev Friday den 23 July 2004 kl. 19:20: [ svar | nyeste ]
Jeg har desværre ingen tal endnu.... Havde selvfølgelig glemt at få Service Pack 2 (DX9c) med hjem ;-) MEN hvis man efter install af 1.2 smutter ind i support mappen er der faktisk et dokument der hedder noget i stil med SM2.0b. Der er guidelines til at aktivere nye funktioner (SM2.0b) på R420 kort. Så rent umiddelbart ser det ud til iXBT har ret :-) Dog virker det ikke til 3DC er aktiveret endnu...
Rune skrev Friday den 23 July 2004 kl. 22:12: [ svar | nyeste ]
Her er også en længere opskrift på, hvorledes ejere af X800-grafikkort kan få op til ca. 25% mere ydelse i Far Cry via aktivering af SM2.0b:
Rune skrev Friday den 23 July 2004 kl. 21:27: [ svar | nyeste ]
Patch 1,2 er nu officielt blevet tilbagekaldt af Ubisoft - men for en sikkerheds skyld kan det være, at man bør gemme en kopi (såfremt 3Dc og SM2.0b virkelig er implementeret og man får brug for dette):
"Ubisoft let us know that the Far Cry 1.2 patch released a few days ago has been recalled. According to the publisher "Far Cry patch 1.2 has shown unexpected behaviour on specific hardware configurations. These matters are mainly due to incompatibilities with several optimisations brought lately to the code, with the intent to please a large number of users". CryTek is working on a fixed version of the update to be released "as soon as possible"."
Derudover testede jeg lige Far Cry med patch 1,2 (som i øvrigt virker fint på mit system) - her resultater fra Research-demo fra Ubisoft (maksimalt detaljeniveau uden FSAA og ANI, skygger sat til medium, testsystem Athlon XP 1750/140 MHz + Radeon 9700 Pro 351/324 med Cat. 4,7):
Dvs. min cpu kan levere mindst 54 FPS i 1600x1200, men grafikkortet kan kun levere 25 FPS - ergo vil formodentlig selv X800XT PE eller 6800U kunne være flaskehals med ydmyg Athlon XP 1750/140 i 1600x1200 (især med FSAA og ANI)... Nuvel, andre test kræver dog mere cpukraft, men i 1600x1200 er jeg generelt grafikkortbegrænset i Far Cry v. 1.2.
Rune skrev Sunday den 25 July 2004 kl. 19:54: [ svar | nyeste ]
Så har Digit-Life publiceret en engelsk version af den russiske iXBT-artikel, der beskriver, hvorledes Shader Model 2.0b kan aktiveres på X800-baserede grafikkort - læs mere her:
rune du har lavet en lille fejl i dit indlæg fredag den 23 juli 2004 kl. 21:27:
Dvs. min cpu kan levere mindst 54 FPS i 1600x1200- skulle der ikke står 1024x765 og ikke 1600x1200.
eller er det da en super cpu du har bedre i 16x12 end 1024x765
*GGGG*
Rune skrev Sunday den 25 July 2004 kl. 23:58: [ svar | nyeste ]
Den burde nu være god nok; dvs. cpu-ydelse påvirkes ikke af skærmopløsning, så vil du vide, hvad din cpu kan klare i 2048x1536, så test din cpu i f.eks. 640x480. Dette er netop årsagen til, at gode anmeldere tester cpu-ydelse i så lave opløsninger, at grafikkortet ikke begrænser ydelsen. Hvis jeg måler 54 FPS i 1024x768, så ved jeg, at jeg med et tilstrækkeligt hurtigt grafikkort vil kunne opleve mindst 54 FPS i 1600x1200. Dvs. falder ydelse, når du skifter opløsning, så er grafikkortet flaskehals, men er ydelsen den samme, så behøver du en kraftigere cpu - læs evt. mere her:
Rune skrev Monday den 26 July 2004 kl. 11:04: [ svar | nyeste ]
Så har også XBitLabs testet Radeon X800-serien med Shader Model 2.0b aktiveret i Far Cry mod GeForce 6800-serien med Shader Model 3.0 - artiklen er meget interessant og kan læses her:
Kiwi skrev Monday den 26 July 2004 kl. 18:36: [ svar | nyeste ]
Firing Squad har også testet, specielt en bemærkning på denne side fangede min opmærksomhed: http://www.firingsquad.com/hardware/far_cry_ps2.0b/page21.asp . Citat fra første afsnit: "According to one ATI employee we spoke with, 3Dc just missed getting added to Far Cry 1.2 the last time, so we’ll also be curious if CryTek is able to slip this feature in the next 1.2 release. We’re under the impression that CryTek’s 3Dc implementation is focused on performance rather than improved image quality, so ATI’s X800 performance will only be going up from here." Dvs. 3DC er ikke implementeret endnu? Det vil da give en temmelig stor forskel ydelses mæssigt på X800XT og 6800Ultra hvis det kommer på i den reviderede 1.2 patch.
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.