af Webmaster Thursday den 19 August 2004 kl. 14:12 [ Grafikkort ] Serverne er så småt begyndt at arbejde hos Valve, som snart forventes at frigive Half-Life 2. I denne forbindelse har Valve netop udsendt en Video Stress Test (VST), der skulle besvare, hvorledes Half-Life 2 vil blive afviklet på mange PC-systemer (direkte citat fra Gabe Newell: "HL/2 pre-load will begin tomorrow. It was ready yesterday, but we decided to use the bandwidth to get out the VST first since I get pelted with zillions of questions from people asking how their PC will run Half-Life 2"). Tidligere har VR-Zone publiceret resultater fra CounterStrike: Source BETA, som endnu ikke fungerede med avancerede shadere og dermed næppe repræsenterer Half-Life 2; men heldigvis er Driver Heaven allerede ude med de første resultater fra VST-testen, som vi her ser nærmere på.
Bemærk, at ovenstående citat fra Gabe Newell stammer herfra:
CPU: Athlon 64 FX-53
RAM: 1GB PC3200
BUNDKORT: MSI K8T neo2-FIR (Via K8T800 Pro)
Styresystem: Windows XP SP2 med DX 9.0c
GeForce 6800 Ultra anvendte nyeste Forceware 61.77 driver og Nvidia optimeringer var aktiverede, mens Radeon X800XT Platinum Edition anvendte nyeste Catalyst 4.8 WHQL. Nuvel, lad os se på de første resultater fra VST-testen, og vi fokuserer udelukkende på 1600x1200-opløsning (se originalartiklen for 1280x960):
Hver test er kørt 3 gange for at sikre pålidelige resultater. Vi estimerer GeForce 6800 Ultra til ca. 77 FPS, mens X800XT PE når ca. 100; dvs. at Radeon X800XT Platinum Edition her er 30% hurtigere end GeForce 6800 Ultra, hvilket svarer til, hvad Valve for nylig har postuleret (den 2. august 2004):
"Doug specifically stated that the ATI x800 was the card of choice amongst many of the testers, as it ran roughly about 30% faster than Nvidia's best cards."
Kilde: http://pc.ign.com/articles/535/535268p1.html?fromint=1
Men lad os se, hvad der sker, når 4xFSAA og 8xANI aktiveres:
Her vurderer vi GeForce 6800 Ultra til ca. 50 FPS og Radeon X800XT Platinum Edition til ca. 72 FPS, dvs. at Radeon X800XT PE her er hele 44% hurtigere end GeForce 6800 Ultra. Driver Heaven prøvede også at anvende maksimalt detaljeniveau på disse grafikkort og fandt:
Denne sammenligning er dog som at sammenligne æbler med pærer, og kan primært anvendes til at få en ide om ydelse med maksimalt detaljeniveau. Dog gælder, at ønsker man et højere niveau af FSAA end 4xFSAA, bliver resultatet ovenstående, hvor Radeon X800XT PE tilbyder fuld 6xFSAA, mens Nvidia's "8xS" ifølge Tom's Hardware er en blanding af 4xFSAA og 2xSuper Sampling (sammenlign 8xS med 6xFSAA her: http://www.hartware.net/review_400_13.html ). Resultaterne tyder på, at ønsker man højere kvalitet end 4xFSAA, så er X800XT PE 200% hurtigere end GeForce 6800 Ultra; formodentlig kan Nvidia her vinde en del med kommende drivere. Men lad os blive lidt være "æbler vs. pærer"-problematikken for ifølge PC World gælder:
"Problemet med normalmaps er, at de fylder godt i hukommelsen, og med 3Dc komprimering kan man typisk få plads til 100 megabyte normalmap-data mere, end hvad man ville have til rådighed med 256 megabyte ram på et grafikkort, der ikke kan komprimere normalmaps. Den ekstra plads kan udviklerne så bruge til mere detaljeret grafik... Det er blandt andet Valve, firmaet bag Half Life 2, der har presset på i de sidste par år for at få en komprimeringsteknologi til normalmaps."
Kilde: http://www.pcworld.dk/default.asp?Mode=2&ArticleID=5095&SegmentID=14818
Og første skærmbilleder fra Half-Life 2 med 3Dc er forlængst ankommet:
Det er således nemt at forudset problematikken; dvs. hvad er bedst, hvis vi i et hypotetisk tankeeksperiment forestiller os, at Radeon X800XT PE med 3Dc (og dermed særlig flot billedkvalitet) når 50 FPS, mens GeForce 6800 Ultra når 60FPS uden 3Dc (og dermed har markant dårligere billedkvalitet)? Så er vi netop ude i æbler vs. pærer - og hvis X800XT PE med 3Dc både er meget flottere og hurtigere end GeForce 6800 Ultra uden 3Dc, kan man atter diskutere, om sejren er meget større end ydelsen i sig selv angiver. Med andre ord er det muligt at forudse, at vi nok kommer til at sammenligne æbler med pærer i Half-Life 2, hvis Half-Life 2 anvender 3Dc, som ikke understøttes af GeForce 6800 Ultra - men den tid den sorg.
KONKLUSION OG AFSLUTTENDE BEMÆRKNINGER
Første resultater, som ifølge Gabe Newell fra Valve Software repræsenterer ydelse i Half-Life 2, indikerer, at Radeon X800XT PE er 30 - 44% hurtigere end GeForce 6800 Ultra, hvilket svarer til den omvendte situation af Doom3. Der er dog tale om tidlige resultater, og vi ved endnu ikke, hvorledes disse vil forholde sig til den kommende fulde version af Half-Life 2. Der vil formodentlig komme flere resultater fra Valve's Video Stress Test, og vi vender tilbage til mere omfattende resultater, såfremt disse er markant forskellige fra ovenstående (ellers tilføjes henvisning til andre resultater som kommentarer til denne artikel). Tak til en af vore læsere ved navn "J. Skøt" for hurtigt at informere os om ovenstående resultater.
jAMBAZZ skrev Thursday den 19 August 2004 kl. 14:22: [ svar | nyeste ]
Uhhhhh.... det lader til at jeg skal købe et X800 kort til min AMD64 3400+ :o
Spændt på hvordan grafikken føles i Direct3D i forhold til OpenGl som Half-Life benyttede.
jaja skrev Thursday den 19 August 2004 kl. 14:39: [ svar | nyeste ]
MUUUUUUMS... Must have HL2 :p Og et af de nyere ATi gfx :o Men er bange for at der går et stykke tid før jeg køber noget som helst HW igen :/
Skøt skrev Thursday den 19 August 2004 kl. 14:57: [ svar | nyeste ]
Driverheaven har lavet en opdatering (langt nede i tråd fyldt med flames) hvor de har "redone" deres test med hhv. forceware 65.62, en eksta gb ram, og et overclocket 6800u. dog uden at det rokker det helt store ved de første resultater.
Årsagen til et "rerun" af testen, var at flere brugere mente at kunne opnå bedre resultater end driverheavens 6800u selv med 6800gt
LINK: http://www.driverheaven.net/showthread.php?t=53712&page=4&pp=15
Der er næppe nogen tvivil om at x800xtpe vil vedblive med at være væsentligt hurtigere end 6800u i hl2, men jeg tror nu at en del af forskellen vil forsvinde, efterhånden som optimerede drivers fra nvidia og mere "timedemo-agtige" benchamrks dukker op.
Er der nogen der har nogensomhelst officielle oplysninger om valves implementering af 3dc? (flere deltaljer, eller kun optimering?) jeg har skrevet til valve og spurgt, men selv om de normalt er flinke til at besvare spørgsmål, lader det til at de klapper i som en østers når 3dc nævnes :(
Personligt irriterer disse resultatter (samt manglen på autoritativ info om 3dc) mig grænsleøst, ikke fordi jeg er nvidia fanboy, men fordi jeg pt. hælder mest til at købe et 6800gt, jeg vile meget nødigt skulle til at smide 1000kr mere for et x800xt, og x800pro tiltaler mig ikke rigtigt pga. de manglende 4 pibelines :(
Crunch skrev Thursday den 19 August 2004 kl. 15:25: [ svar | nyeste ]
Nogen idé om ydelse på et Radeon 9800 pro, som en del mennesker nok sidder med?
Rune skrev Thursday den 19 August 2004 kl. 17:14: [ svar | nyeste ]
Desværre, men eftersom ydelsen er meget høj med X800XT PE, så lover dette umiddelbart godt for ejere af mellemklasse ATi grafikkort; dvs. lidt det samme som "Ups" er inde på længere nede.
R fe skrev Thursday den 19 August 2004 kl. 15:48: [ svar | nyeste ]
angående den sammenligning...
8xS, 16x...store imponerende tal fra nvidia...men det jo kannon grimt ud????????
prøv lige at checke den første sammenligning med de blå "fikant", 8xS, 16x gf6800...det er jo en katastrofe???????
og læg lige mærke til at 8xS, 16x instillingen på gf6800 faktisk giver større'hakker' på den 'lodrette' side af firkanten i forhold til...0xfsaa, 0af
sådan ser det i hvert fald ud for mig...det er jo skørt..
Mads skrev Thursday den 19 August 2004 kl. 16:01: [ svar | nyeste ]
#R fe
Det er fordi 8xS ikke virker, når 8xS slås til slår man AA fra.
R fe skrev Thursday den 19 August 2004 kl. 16:05: [ svar | nyeste ]
hmmm...okay??? men hvad er så forklaringen på at det fatisk bliver værrere end ved 0xfsaa, 0af...??
nogle er ser det samme? eller er det bare mig der har dumme øjne?
proxy4.cybercity.dk skrev Thursday den 19 August 2004 kl. 16:20: [ svar | nyeste ]
FEDE TESTRESULTATER...Hmm, jeg tænker bare lige lidt på hvor mange af Danmarks spilfreaks der kan bruge de oplysninger.
Jeg mener for det første er HL2 IKKE udkommet og for det andet, så kræver de testede grafikkort og opløsninger hardware på den forkerte side af 20Kilo, men det er måske bare mig der mangler et link til et site i mit P4-2.8GHz/Radeon9800PRO niveau...
Hvor de lige ridser detaljerne op omkring et high-end harmonisk system, jeg mener alt fokus skal vel ikke nødvendigvis ligge på grafikkortet.. eller HUR ?!!
Jeg har aldrig set noget som var mere CPU begrænset! Alle kortene yder jo det samme i samtlige indstillinger. Ugler i mosen......... så er det i hvert fald ikke i det link vi finder beviset.
Rune skrev Thursday den 19 August 2004 kl. 17:18: [ svar | nyeste ]
Der er nu næppe mange ugler i mosen; prøv i stedet at læse ovenstående artikel endnu engang - her er et uddrag: "Tidligere har VR-Zone publiceret resultater fra CounterStrike: Source BETA, som endnu ikke fungerede med avancerede shadere og dermed næppe repræsenterer Half-Life 2; men heldigvis er Driver Heaven allerede ude med de første resultater fra VST-testen, som vi her ser nærmere på."
Dvs. den test, som du henviser til, er uden avancerede shadere og afviger meget fra Video Stess Testen (=VST), som ovenstående resultater stammer fra - ifølge Gabe Newell skulle VST-testen korrelere med ydelse i den færdige version af Half-Life 2, og havde Newell ikke skrevet dette, så havde vi naturligvis ikke bragt resultater fra relativt syntetisk test.
Hør nu...... om det er CS Source eller Source engine, for det er under ingen omstændigheder tale om bechmark. Siden viser udelukkende hvordan worst case CPU begrænsning ser ud. Hvordan kan de overhovedet oploade sådan noget vrøvl?
Suk det sådanne indlæg der skaber så meget forvirring.
CS: Source er cappet ved 90 fps og har nogle tydelige begrænsninger indlagt for at mid-end systemer også har en chance, det har f.eks. Valve, VR-zone og andre sites udtalt.
Source engine (hl2 engine) har ikke disse begrænsninger og giver derfor et godt billede af hl2 ydelsen.
AlphaMF skrev Friday den 20 August 2004 kl. 13:53: [ svar | nyeste ]
Hvis du nu tod foden ud af munden og gik ind i deres hardware steup ville du se de har brugt en Amd 64 3800+ cpu og 1 gb ram. SÅ der er ikkke tale om en hardwarebegrænsing, det RUne derimod siger er korrekt.
MVH AlphaMF
Brian skrev Thursday den 19 August 2004 kl. 17:21: [ svar | nyeste ]
Bla Bla nu vil jeg have et gf 6800 og og nu vil jeg heller have et ati x800, det korte af det lange er nvidia 6800 serie har nogle nye ting indbygget x800 serien er bare en optimeret 9800xt kerne alså et 9800xt på drugs.....
Rune skrev Thursday den 19 August 2004 kl. 17:26: [ svar | nyeste ]
Det er nu en ekstremt overfladisk og unuanceret fremstilling, som vi ikke er glade for her på sitet; læs mere her, hvis du ønsker at kende til mere detaljerede forskelle på R420 og R360:
terfy skrev Thursday den 19 August 2004 kl. 17:30: [ svar | nyeste ]
om det er et NVIDIA eller ATI highend kort, er total pisse hamrende ligegyldigt for mig, bare det er fra stabile og gode producenter... altså jeg mener såsom ASUS, MSI, ABIT osv.
god ydelse fra min favorit (MSI) så er jeg godt tilfreds.. og så er jeg ligeglad med om min nabo kan køre doom3 eller hl2 5FPS hurtigere end mig..
men når kortet kommer på markedet, køber jeg MSI GF6-6800, det er godt nok til mig..
Skøt skrev Thursday den 19 August 2004 kl. 17:54: [ svar | nyeste ]
Så kom der endnu en benchmark, denne gang fra gamers-depot, de har ligeledes anvendt VSTén, driverne er igen hhv. 61.77 og 4.8(WHQL), CPUén er her en P4-3.4ghz Nothwood, de har max testet i 1600x1200 4xAA/8xAniso.
Hvis vi sammeligner med Driverheavens test, ved 1600x1200|4xAA78XAniso ser vi en vis forskel:
Driverheaven tildeler: 6800U:50fps - x800XTPE:72fps (ca. aflæsning fra grafer)
Gamers-depot tildeler: 6800U:55fps - x800XTPE:69fps
Her er forskellen altså "skrumpet" fra ca. 22fps til ca. 14fps, når man så medtager at nforce65,62 tilsyneladende også giver nvidia et lille skub i den rigtigt retning, så kunne det jo tyde på at forskellen ikke bliver så voldsom ?
Rune skrev Thursday den 19 August 2004 kl. 18:05: [ svar | nyeste ]
Interessant; hos GamersDepot er X800XT PE 11% hurtigere i 1600x1200 uden FSAA og ANI ifht. 6800U, aktiveres 4xFSAA og 8xANI er X800XT PE 24% hurtigere. Det springende spørgsmål er dog nok betydningen af 3Dc. Eftersom ydelse er glimrende på begge grafikkort (over 60 FPS uden FSAA og ANI i 1600x1200), så vil forbedret billedkvalitet overtrumfe stort set alt andet - efter min opfattelse.
er der nogen der kender et link til hvor man kan dl VST ??
eller kræver det mere end blot VST'en ???
kunne jo være interessant at teste sit eget system ;-)
Skøt skrev Thursday den 19 August 2004 kl. 18:47: [ svar | nyeste ]
Det er desværre en integreret del af CS:S betaen, og som sådan kun tilgængelig hvis du: A) Har en ATI - HL2 kupon. B) Ejer en kopi af CS:CZ.
afvikles det som video eller er det realtime rendering? er det repræsentativt for hvordan ens PC vil kunne køre HL2?
Rune skrev Friday den 20 August 2004 kl. 09:51: [ svar | nyeste ]
Der har været film ude, som viser High Dynamic Range Rendering, og disse skulle repræsentere real-time rendering (formodentlig med 9800XT grafikkort).
Rune skrev Thursday den 19 August 2004 kl. 20:54: [ svar | nyeste ]
Firingsquad er også ude med resultater, som næppe vil glæde tilhængere af Nvidia; dvs. her vinder X800PRO vel første sejr over 6800Ultra (Forceware 61.77 og Catalyst 4,8 på Athlon 64 3800+ med VIA chipset og 1GB ram):
Vi kommer ikke uden om at det er en kæmpe bet for NV. :-( Men ikke værre end at stillingen nu er lige. Det bliver interessant at se hvordan X800Pro klarer sig med sine 12 pipes. Måske er der håb for 6800gt endnu.
It's not too surprising to see ATI pull out an overall win on the high-end - however, it doesn't bode too well for them to not be having the same victories in the middle-class cards. The 16-pipe advantage of the 6800GT series does a great job of keeping pace with the X800 Pro
Ouch.. Jeg tror jeg bliver endnu mere glad end forventet over mit X800XT (har preordered det) :)
Ser godt ud-- Og da jeg tror HL2 vil hype lige så meget som HL + alle de MOD's der sikkert kommer, så vil jeg sige det lige er et lidt bedre kort at have på hånden end D3 :)
Måske er jeg bare lidt naiv pga jeg har forbestilt X800XT.. Hvem ved? :P
jaja skrev Thursday den 19 August 2004 kl. 21:38: [ svar | nyeste ]
I de tests hvor man tester GFX, burde man da lave samme test i lav opløsning, for at se om det i virkeligheden er CPU'en eller GFX'et der sætter grænsen for det højest scorende kort i de højere opløsninger.
terfy skrev Thursday den 19 August 2004 kl. 22:05: [ svar | nyeste ]
jeg tror jeg vil give dig ret.. jeg syns ihvertfald det lyder meget logisk.
terfy
Rune skrev Thursday den 19 August 2004 kl. 22:05: [ svar | nyeste ]
Cpu'en arbejder uafhængigt af skærmopløsning; havde cpu'en været flaskehals, så havde alle grafikkort opnået samme ydelse, og det gør de ikke (ergo er cpu ikke flaskehals, men derimod grafikkort). Læs evt. mere her om at adskille cpu og grafikkort:
terfy skrev Thursday den 19 August 2004 kl. 22:12: [ svar | nyeste ]
nåja det havde jeg lige glemt.. jeg tænkte omvendt, hvilket jeg ikke skulle have gjort...
men der må da osse komme et tidspunkt hvor mængden af ram er flaskehals..
er det ikke rigtigt ??
Rune skrev Thursday den 19 August 2004 kl. 22:16: [ svar | nyeste ]
Det kommer helt an på applikationen, har du 1GB ram i dag, så burde du ikke opleve problemer med eksisterende spil (selv Doom3 High Detail og Far Cry afvikles optimalt). Udover Doom3 med Ultra Detail erindrer jeg intet spil, som anvender mere end 256MB ram - men måske supersampling mht. 8xS kræver mere (jeg har aldrig set dette testet).
terfy skrev Thursday den 19 August 2004 kl. 22:17: [ svar | nyeste ]
oki... er der ikke nogle eksempler man ka se nogen steder på nettet tror du ?
Rune skrev Thursday den 19 August 2004 kl. 22:20: [ svar | nyeste ]
Desværre, prøv evt. at søge på Google.
terfy skrev Thursday den 19 August 2004 kl. 22:18: [ svar | nyeste ]
jeg har 512MB PC3200 DDR i min.. jeg håber da at jeg ka køre de fleste spil med dem..
Meridian skrev Friday den 03 September 2004 kl. 16:26: [ svar | nyeste ]
Jeg kender et enkelt spil (Planet Side) det kræver mere end 256 mb. I mit tilfælde lagger spillet voldsomt i nærkamp, hvis jeg kun har 512 mb PC 3200 RAM men kører fint ved 768 eller derover (P4 3,0 GHz/GF TI4200). Måske ville det ikke være et problem med nyere/hurtigere grafikkort. Så nu er jeg da blevet interesseret i et GF6800/x800. F...... at der ikke er entydige test af de kort.
Ezekiel skrev Thursday den 19 August 2004 kl. 22:06: [ svar | nyeste ]
Nej, for da begge målinge er foretaget på samme CPU er det tydeligt, at det ikke er grafikkortet der er begrænsningen.
Rune skrev Thursday den 19 August 2004 kl. 22:07: [ svar | nyeste ]
Du mener forhåbentlig: "Nej, for da begge målinge er foretaget på samme CPU er det tydeligt, at det ikke er cpuen der er begrænsningen."
Asger skrev Thursday den 19 August 2004 kl. 22:30: [ svar | nyeste ]
Jeg er sikker på at ID har lavet sub-optimal kodning til ATI hardware og Valve ligeså mht. til nV hardware..... Konspirationsterori - ja, men er det ikke lige tykt nok det her show!!!!!
Anyway, der er nu nok ikke tale om bevidst dårlig kodning, det er nok nærmere et spørgsmål om hvilken hardware man vælger at brænde mest udviklingstid af på.
Men, jeg tror da klart at nVidias overlegenhed i doom3 har fået Valve/ATI til at skynde sig med at få denne benchmark releaset... - og er ikke så sikker på at det her nødvendigvis betyder at hl2 er tæt på release (forhåbentlig tar' jeg fejl, det ville være et noget beskidt trick)
Could I get my hat back now?
/cl
Anybody skrev Thursday den 19 August 2004 kl. 22:36: [ svar | nyeste ]
Det er dog lidt mærkeligt. Måske der alligevel er ugler i mosen ?
Rune skrev Friday den 20 August 2004 kl. 09:34: [ svar | nyeste ]
Der er dog ikke nogen beta, men en ufærdig alfa-version, som blev stjålet fra Valve for ca. 1 år siden, hvor teksturer mm. mangler. VST-testen ser ud til at være meget mere færdig, selv om denne relativt syntetiske test også har mangler. Men det er naturligvis altid bedre at vente på den fulde version, som du er inde på.
Asger skrev Thursday den 19 August 2004 kl. 22:39: [ svar | nyeste ]
Skøt skrev Thursday den 19 August 2004 kl. 22:57: [ svar | nyeste ]
Hmm, begynder alvorligt at tvivle på at Valves VST kan bruges til noget fornuftigt (andet end at påpege at x800xtpe tydeligvis yder væsentligt bedre end 6800u i source.engine)
fx. 6800u @ 1600x1200|4xAA/8xAF: 50fps hos driverheaven med en fx-53 og 63fps hos firingsquad med en 3800+ Så stor forskel burde da der ikke være på de to CPU'er ?
Mellemklasse kort som Radeon 9800 Pro/XT og Radeon 9700 Pro klarer sig ganske pænt i testen hos Firingsquad. F.eks score 9800 Pro 128 MB 76,5 FPS i 1280x1024 uden FSAA og ANI.
Jf. Asgers link ovenfor.
Ezekiel skrev Friday den 20 August 2004 kl. 07:49: [ svar | nyeste ]
"Du mener forhåbentlig: "Nej, for da begge målinge er foretaget på samme CPU er det tydeligt, at det ikke er cpuen der er begrænsningen.""
Hov, der fik jeg lige byttet om. Det gik lidt hurtigt :)
217.61.74.130 skrev Friday den 20 August 2004 kl. 08:07: [ svar | nyeste ]
i første test kunne x800xt pe da godt være cpu begrænset, da vi ikke ved hvor meget det setup ville score i lavere opløsning
Rune skrev Friday den 20 August 2004 kl. 11:16: [ svar | nyeste ]
Det ved vi såmænd godt, hvis du læser originalartiklen, så rammer X800XT PE næsten 140 FPS i 1280x960 - så cpu'en kan mindst klare ca. 140 FPS:
Rune skrev Friday den 20 August 2004 kl. 09:42: [ svar | nyeste ]
Det ser ud til, at resultaterne svinger en del; på den ene side har vi resultater fra Driver Heaven og Firingsquad, hvor Nvidia taber stort, på den anden side har vi resultater fra Gamers Depot og nu Tech Report, hvor forskellene er noget mindre - her er resultater fra Tech Report (Athlon 64 3800+, Forceware 61.77 og Catalyst 4.8):
Her er X800XT PE 24% hurtigere end 6800U. Det kan også undre, at Tech Report kalder denne benchmark for CounterStrike: Source, eftersom VST-testen intet har at gøre med CounterStrike; men vi må gå ud fra, at Driver Heaven, Firingsquad, Tech Report og Gamers Depot alle har anvendt samme test (=VST), selv om det bestemt virker påfaldende med den aktuelle spredning af resultater.
Skøt skrev Friday den 20 August 2004 kl. 10:03: [ svar | nyeste ]
Ret sikker på at alle tests (minux vr-zonen) er fra VST'en, Techreport skriver jo:
"Based on everything we know, we can only conclude that the CS: Source video stress test is essentially a Half-Life 2 benchmark that's available to the public right now. Naturally, that piques our curiosity, especially since last time around, the ATI cards were absolutely trouncing the NVIDIA cards in HL2 benchmarks. There was only one thing to do: we rounded up thirteen different DirectX 9-class video cards for a Source engine benchmarking bonanza."
LINK:http://techreport.com/etc/2004q3/source-engine/index.x?pg=1
Og hos gamers-depot, er artiklen med screenshots fra VST'en og ikke cs:s (se side1)
LINK:http://www.gamers-depot.com/hardware/video_cards/source/001.htm
Rune skrev Friday den 20 August 2004 kl. 10:12: [ svar | nyeste ]
Jeg har læst alle test grundigt, og jeg går da også ud fra, at VST er anvendt alle steder; det er blot underligt, at tilsvarende grafikkort kan svinge så meget hos fire forskellige testsites. Hardwaremæssigt ser vi:
CPU = Athlon 64 3800+ eller FX-53 (Firingsquad, Driver Heaven, Tech Report)
CPU = P4 3,4 GHz Northwood (Gamers Depot)
Så 3 ud af 4 har brugt tilsvarende cpu'er (Athlon 64 3800+ pånær Driver Heaven, der anvendte Athlon 64 FX-53) på tilsvarende (K8T800 (Pro)) bundkort med 1GB ram - resultaterne burde næsten være ens alle steder (måske med Gamers Depot som joker grundet langsommere CPU), men det er de langt fra (og jeg har desværre ingen forklaring).
Skøt skrev Friday den 20 August 2004 kl. 10:28: [ svar | nyeste ]
Det er muligt at jeg er på dybt vand her, men kunne der være noget om at denne indstilling er forskellig i de enkelte tests:
Har desværre ikke tid til at tjekke dette i øjblikket, idet min chef lader til at mener jeg skal kigge mere på vore kunders servere, og mindre på benchmarks :)
Rune skrev Friday den 20 August 2004 kl. 10:50: [ svar | nyeste ]
Intet kan vel udelukkes og det lyder da som en god ide:
Firingsquad: "We turned up the detail settings to their maximums on the high-end cards, this means that model, texture, and shadow detail were all set to high, while water detail was set to reflect all objects."
Kilde: http://www.firingsquad.com/hardware/half-life2_vst/default.asp
Så Firingsquad anvendte max. indstillinger, og det samme skulle Driver Heaven have gjort (derfor står der "Max" på billederne fra Driver Heaven)
Indstillinger hos Tech Report kan ses her, men jeg er ikke klar over, hvorvidt dette er max. eller "high" (dette kommer an på, om water detail kan sættes højere - jeg vil dog gætte på, at Tech Report også anvendte "max"-indstillinger, da "world" burde være synonym med "all"):
Gamers Depot havde deaktiveret enkelte optimeringer: "Trilinear & Anisotropic Optimizations disabled", hvilket også kan have haft betydning (kilde: http://www.gamers-depot.com/hardware/video_cards/source/002.htm ). Det korte af det lange ser ud til at være, at både Firingsquad og Driver Heaven direkte angiver, at maksimale indstillinger er anvendt, mens dette er lidt mere i gråzonen hos Tech Report og især Gamers Depot (Gamers Depot skriver stort set intet om anvendte indstillinger, men derfor kan de naturligvis sagtens have anvendt "max"-indstillinger) - under alle omstændigheder, så vandt X800XT PE over 6800U alle steder, dog med forskellig margin.
Kiwi skrev Friday den 20 August 2004 kl. 12:18: [ svar | nyeste ]
Ihvertfald ser det ud til at FiringSquad er lidt grundigere... Blandt andet bemærker de at FX kortene kører med DX8.1, noget som bla. Techreport ikke lige får nævnt. Mht. Water Reflection ser All Objects ud til at være højeste setting....
Skøt skrev Friday den 20 August 2004 kl. 13:19: [ svar | nyeste ]
Syntes nu techreport er gnaske fair i deres bemærkninger omkring FX-kortne:
"Second, the GeForce FX cards hit a few bumps in the road in this beta version of CS: Source. The Source engine auto-detects recommended settings for one's video card, and on any card in the GeForce FX line, it practically insists on turning off water reflectivity. As a result, we've benchmarked the GeForce FX line without water reflectivity, and we've put an asterisk next to the name of each FX card in our results, to remind you of that fact. There's no great visual difference between the water's look on the FX line and on other cards, but if the menu settings mean anything, the FX cards are doing less work. "
LINK:
http://www.techreport.com/etc/2004q3/source-engine/index.x?pg=2
Kiwi skrev Friday den 20 August 2004 kl. 18:45: [ svar | nyeste ]
Har læst den Skøt, min pointe er at de åbenbart ikke har sat sig godt nok ind i hvordan de forskellige kort kører benchen (eller også deler de det bare ikke med deres læsere). De er helt i orden de omtaler problemer med FX kortene, men har da noget mere respekt for FiringSquad der åbenbart har engagement nok til at finde ud af grunden... Hvis de ikke har opfattet at FX serien kører DX8.1 kan der nemt være andre ting der er smuttet. Set ud fra det vil jeg mene at Firing Squads test er mere "holdbar"....
Rune skrev Saturday den 21 August 2004 kl. 01:30: [ svar | nyeste ]
Jeg tror, at du har ret, dvs. Firingsquad skriver, at de reducerede detaljeniveau ved mellemklasse grafikkort:
Dette indikerer, at Firingsqaud og Driver Heaven har anvendt max. indstillinger på aktuelle high-end grafikkort (="reflect all"), mens Tech Report direkte viser, at de har brugt "reflect world" (Tech Report skriver også, at de blot testede ved standardindstillinger, og standardindstillinger er sjældent sat på højeste niveau) - dette ville kunne forklare spredningen af testresultater, selv om det stadig er udokumenteret, hvilke indstillinger som blev anvendt af VR-Zone og Gamers Depot (et gæt vil dog være, at Gamers Depot også anvendte standardindstillinger, eftersom resultater her minder lidt om Tech Report).
Xp3rt skrev Friday den 20 August 2004 kl. 09:43: [ svar | nyeste ]
HAHAHAHAHA hvor er det lækkert. Jeg husker godt en der skrev lidt i den der Doom III test som mente at ATi var død, og ikke kunne måle sig med 6800 Ultra, men 200 % hurtigere med fuld details... Det er f****** lækkert :D
Det i situationer som denne at det er lige før jeg ville ønske at vi kunne få monopol tilstande igen. Det kan sgu ikke være rigtigt at i 2 så højt profilerede spil som Doom3 og Half-Life2 jo er, at der er så stor forskel på de 2 kort. Hvis én af producenterne havde givet baghjul til den anden i begge spil var det forståeligt, men at nVidia er betydeligt overlegen i Doom3, samtidigt med at ATI (tilsyneladende) er så ekstremt overlegen i Half-Life2 er altså bare noget rod set med en forbrugers øjne, da der er tale om 2 spil inden for samme genre (og derfor henvendt til samme målgruppe).
I stedet for at kigge efter hardware kvaliteter, bliver det kommende købsgrundlag baseret på hvilken engine man forventer kommer til at blive den mest brugte af andre udviklere de næste par år ... hvilket i mit tilfælde nok betyder at jeg må finde mig i ATI's skod drivere nogle år endnu *meget stort suk*
Har kørt med Catalyst driverne i et år nu og har aldrig bemærket problemer.
Hver gang jeg opdaterer Catalyst driverne, kører jeg ATIs Catalyst Uninstaller, for at være 100 % sikker på, at der ikke ligger mystiske rester tilbage - jeg er typen, der godt kan lide at gå med livrem og seler ;)
Øøøhhm hvor lidt har du fulgt med? ATI er det firma som sender flest opdateringer ud der er WHQL cert. drivers, ca. en hver 4 uge og de er først med support for VPU Recovery som er krav i longhorn, samt deres kommende driver, som nok bliver ved 4.10 eller 4.11 er de første som er 100% longhorn kompatibel da de bruger .net
At ATI laver skod drivere er en gammel skrøne, for ja det var tilfældet for 1½ år siden, men sådan hænger det ikke sammen mere.
Det eneste minus punkt som der er ved ATI's drivere, er at deres OpenGL del mangler en del optimering, men det er de gået igang med at bruge mere tid på og årsagen til de ikke er gået op i openGL drivers, er nok fordi at 98% af alle spil der kommer ud pt. er DX baseret spil og det er først her ved Doom 3 der rigtigt har værer brug for de vilde OpenGL krav.
Nice! Det hjælper altid en samtale at komme med nedladende kommentare som denne.
Men bortset fra det, så giver jeg nu ikke ret meget for tiltag som VPU Recover, når Hardware Tidende selv anbefaler at man slår den fra når man spiller f.eks. "Call of Duty" da skidtet ellers har det med at brage ned med at knald.
Hvorvidt ATI's drivere er kompatible med Longhorn er også fuldstændigt irrelevant på nuværende tidspunkt da Longhorn ikke er udkommet, så det ville være betydeligt mere relevant at fokusere på situationen som den ser ud lige nu.
Jeg gider altså ikke at skulle sætte igang med at skrue og indstille på alverdens klokker og fløjter (lyder bedre på engelsk) hver gang jeg skifter fra at spille ét spil til et andet bare fordi driver versionen ikke fungerer til alle spillene.
Hvis du aldrig har haft bøvl med ATI's drivere, jamen så tillykke med det og så må vi vist hellere stoppe her inden Rune bliver knotten :o)
Hvis min kommentar har virket nedladende, så beklager jeg og kan godt se hvis du tror det.
Jeg hører bare den med ATI og drivers hele tiden og har bare ikke den opfattelse for egne erfaringer og venners erfaringer.
Mine erfaringer med grafikkort, både ATI og Nvidia plejer fejl i 90% af tilfældene ligge et andet sted, som RAM, PSU, dårlig oprydning osv. osv.
Mick skrev Friday den 20 August 2004 kl. 12:25: [ svar | nyeste ]
Der kan sagtes være interne forskelle der gør af måden engine kodes på vil bevirke sjove forskelle. ATI og NVIDIA har forskellige filosofi mht. til måde GPU'en designes på. Ditto har Valve og id med sandsynligvis.
Og evt. konspirationsteorister må for min skyld tro hvad de vil. Ren spekulation hjælper alligevel ikke ret meget..... ;o)
Mht. til ATI's drivere så er det mindst af samme "kvalitet" som NVIDIA's. Kun software (incl. drivere) der ligger i skuffen er fejlfri.
Jeg har nul problemer med mit X800 PRO. I det hele taget har jeg ikke rigtigt oplevet nogen problemer med ATI's drivere i meget lang tid nu. Men der er altid en eller anden som vil rende en i en eller flere problemer - og for dem er det naturligvis surt show (hvorfor hele verden naturligvis ramler sammen... :/).
Livet er heldigvis mere end bare drivere og PC-spil (og hvis ikke har man vist et problem...).
217.61.74.130 skrev Friday den 20 August 2004 kl. 10:50: [ svar | nyeste ]
Siden adskillige spil af ældre dato er blevet mere eller mindre uspillelige på grund af fejl introduceret af ATI i forbindelse med performance tuning af nyere spil (Jedi Academy, Haegemonia for blot at nævne nogle få).
Siden driverne giver mulighed for at angive forskellige gamma ratings for 2D og 3D applikationer, men ikke kan finde ud af at skifte tilbage til 2D indstillingerne når jeg afslutter et spil (hvilket betyder at jeg manuelt skal gå ind og aktivere den korrekte indstilling før der skiftes og det skal gøres HVER ENESTE gang jeg kommer tilbage til desktoppen).
Siden hele konceptet med at fokusere mere på minimale performance tunings af et enkelt spil per driver release har fået langt større vægt end rettelser af fejl, som gør andre spil uspillelige (hvilket bevirker at tydelige fejl, selv i nyere spil, får lov til at forblive uberørte gennem flere driver versioner).
Siden blinkende texturer/objekter og tydelige hvide samlingslinier (såkaldte grafik fejl) er blevet ignoreret af ATI's driver hold og nærmest er blevet kategoriseret som features i stedet for fejl.
Siden det er blevet en accepteret "løsnings model" af brugerne at skifte frem og tilbage mellem Catalyst versioner, såfremt én version har problemer med et spil, som en anden/ældre version ikke har problemer med.
Måske er jeg mere uheldig end andre, men dengang jeg havde mit GF4400 kort og Detonator drivere, var der helt andre boller på suppen og jeg havde stort set ALDRIG problemer med drivere ... nu skal jeg stort set starte med at planlægge x antal dage frem i tiden hvilke spil jeg kunne tænke mig at spille (jeg har som regel gang i flere spil ad gangen, f.eks. et FPS, et RTS, et RPG osv), så jeg kan vælge nogle, som kan køre med samme driver version ... det er altså bare ved at hænge mig langt ud ad halsen at jeg ikke bare kan installere én driver en gang for alle og så virker det hele og fremtidige driver releases vil så muligvis påvirke spil i en positiv retning (færre fejl eller bedre performance), men ikke i en negativ retning.
Det lugter altså som det er noget andet der skaber de problemer, for det lyder godt nok lidt for vildt til det kun kan være driveren.
At gamle spil bliver ubrugelig har jeg overhovedet ikke oplevet, og jeg spiller en del ældre spil, da jeg netop pt. ikke har den vilde computer..
Sørg for at rense ordenligt op efter dig når du smider en ny driver ind, det er så vigtigt man gør det og faktisk anbefales det man formatere hvis man skifter hele gfx typen, f.eks. fra nvidia til ATI eller omvendt.
Jeg har et Hercules 9800Pro kort og det anskaffede jeg mig sammen med en generel opgradering, som også bevirkede en komplet reinstallering af styresystem (faktisk også filsystem fra FAT32 til NTFS), så der er ikke skyggen af nVidia driver rester tilbage ... bortset fra at jeg har et nForce2 bundkort :o)
Eksemplet jeg nævner med Jedi Academy er bl.a. at når en bane har en eller flere cloaked imperial commandos (ligegyldigt om de er levende eller døde eller om de kun er en lille prik flere hundrede virtuelle meter væk), så brager skidtet ned på 1-2 fps hvis jeg forsøger at bruge force push eller force pull indtil animation er overstået. I Haegemonia mangler ca. halvdelen af HUD'en og det af den, som ER tilstede flimrer temmelig voldsomt, mens selve planeterne, rumskibene og stjernetågen bliver fremvist knivskarpt og flydende i 1600x1200.
Det er såmen meget muligt at der er noget andet galt med mit system, men jeg ved ikke rigtigt hvad det skulle være, da jeg aldrig rigtigt har rodet med special indstillinger/programmer som kunne være skyld i udførelsesfejl af denne art.
Jeg bruger ATI's Catalyst drivere. Jeg har dog lige prøvet med de nyeste Omega drivere, dog uden nogen synderlig forandring (stadig problemer i Jedi Academy og Haegemonia, samt manglende opdatering af gamma indstillingerne mellem 3D og desktop) ... nu ER den Omega driver jeg har forsøgt mig med jo baseret på Catalyst 4.7, så kan måske også have indflydelse. Så snart jeg får mulighed for det, prøver jeg med en pre 4 driver version for at se om det gør nogen forskel.
PsYtEk skrev Friday den 20 August 2004 kl. 11:50: [ svar | nyeste ]
der er desværre ikke flere direkte sammenligninger imellem 9800pro og 5950u men allerede her kan vi ane en tendens...hvad? er det ikke bare mærkelig at jo længere væk vi bevæger os fra forceware 5x.xx desto dårligere yder nv35 kortene
eller hvad? 9800pro har vel ikke altid været foran 5950u har den vel?
har det ikke været meningen at 5950u skulle konkurrere imod 9800xt???
værsågoooddd
nvidias drivere i al deres guddommelige pragt...WOOOOOWWwww w000t???de styrer for vildt var???
jeg har bare så ondt af alle dem der har investeret i 5950u
de glæder sig jo hver gang så meget når julemanden kommer med de nye drivere...(utroligt) lidt aner de bliver taget i bagen af nvidias driver team...bigtime
For det første er mit problem ikke performance relateret, men derimod forbundet med driver fejl.
For det andet er det da trist at se at ej heller nVidia (tilsyneladende) længere kan finde ud af at lave ordentlige, stabile drivere ... ups, så lige Rune's kommentar. Jeg tier stille nu :o)
129.142.216.83 skrev Friday den 20 August 2004 kl. 12:02: [ svar | nyeste ]
Giver Erroneus ret...
Rune skrev Friday den 20 August 2004 kl. 12:10: [ svar | nyeste ]
Bemærk at ovenstående artikel ikke handler om, hvorvidt ATi har gode eller dårlige drivere, men udelukkende om ydelse i VST-testen med Source-enginen. Dvs. længere tråde om, hvorvidt ATi producerer gode eller dårlige drivere må gerne finde sted i vores forum, men er mindre relevante her (hvorfor flere indlæg, som ikke er rettet direkte mod VST-testen og/eller aktuelle high-end grafikkort risikerer at blive slettet).
R fe skrev Friday den 20 August 2004 kl. 12:34: [ svar | nyeste ]
de der tal jeg udpegede deroppe...
ville det mon være en skør ide at bruge dem som en slags vejrudsigt (for ydelse i halflife2) imellem x800xt og 6800u om 18 måneder når nvidia udskifter til ny drivergeneration? (forceware 7x.xx ???)
man kunne jo forestille sig at 6800u om 18 måneder vil yde ligeså dårligt imod x800 som 5950u imod 9800 når man går væk fra forceware 6x.xx ???
Rune skrev Friday den 20 August 2004 kl. 12:39: [ svar | nyeste ]
Spåkugler er jeg ikke meget for, eftersom man kan forestille sig alt muligt og ingen ved, hvad fremtiden indeholder. Så det vil jeg bestemt afholde mig fra - dvs. hvad Nvidia og ATi kan præstere med kommende drivere og ydelse med 6800U og X800XT PE i Half-Life 2 om 18 måneder aner de formodentlig ikke engang selv på nuværende tidspunkt.
Rune skrev Friday den 20 August 2004 kl. 13:28: [ svar | nyeste ]
Så er VR-Zone også med på VST-testen, og har endda brugt nForce3-bundkort til Athlon 64 3800+, så GeForce 6800 Ultra burde have bedst mulige betingelser; her er resultater uden FSAA og ANI i 1600x1200 (Forceware 61.77 og Catalyst 4.8):
Her var X800XT PE 32% hurtigere end 6800U (42% i 1280x1024 med 4xFSAA og 8xANI, hvilket vist var største observerede forskel). VR-Zone har dog testet flere i forskellige opløsninger samt også med nyere beta-drivere fra Nvidia; læs det hele her:
proxy4.cybercity.dk skrev Friday den 20 August 2004 kl. 14:10: [ svar | nyeste ]
Til spørgsmålet "hvorfor er GPU producenternes kort ikke lige gode til alle spil" kunne måske besvares med, at NVIDIA fx er "Technical partner" til det ventede STALKER.
Vil det så sige, at man skal investere i fx et 6800GT for at spille STALKER optimalt ? Eller bare et bundkort med 2 AGP-porte...AAARGHH !!?
Jeg ved det ikke, men jeg synes det er lidt foruroligende, at fx Microsoft har så stor magt, at de kan bestemme at spil som KOTOR2 kun kan udkomme til PC og XBOX.
Kunne man risikere at se noget lignende det samme monopol med kommende PC titler, at en GPU producent kan sætte sig på en populær spilserie ?
Inde på overclocking.dk har vi også haft diskutionen igang.
Vores opfattelse er: at driverheaven er en ATi-stisk hjemmeside!!
Deres første test af RadeonX800XT banker også Geforce6800Ultra op til flere gange, i hvad som helst!!
De ved udemærket hvordan de skal sætte settings så de favorisere ATi, og deres medlemmer.
F.eks. kan man ikke sammenligne 6xMultisample(ATi) med 8x=4xsupersampling+2xmultisampling(nVidia) Supersampling er meget mere krævende end multisample FSAA. Og det burde alle vide. Ej!! de eneste test der siger noget hos driverheaven er dem, hvor der slet ikke er slået noget til overhovedet!!
Driverheaven.net er klart ATi's baggård, hvilke er grunden til, at jeg sjældent finder deres resultater troværdige. Tilgengæld læser jeg tit i deres forum, og deres nyheder, da de er godt opdateret!! Men bench!! Her tager jeg temmeligt let på deres resultater!!
Rune skrev Friday den 20 August 2004 kl. 16:46: [ svar | nyeste ]
Ønsker man eklektisk testudvalg, så kan man altid kritisere de test, som ikke leverer de resultater, som man af en eller anden grund ønsker. Dette ville dog karakterise en akademisk umoden opførsel, som ikke hører hjemme her på sitet, og du vil kunne se, at både Firingsquad og VR-Zone opnår nogenlunde tilsvarende resultater som Driver Heaven med og uden FSAA og ANI i 1600x1200; så jeg ser umiddelbart ingen grund til at tro, at Driver Heaven har publiceret upålidelige målinger (hos enkelte sites er forskellen på X800XT PE og 6800U også større i Doom3 end på andre sites, men er enkelte sites så Nvidia-istiske? Dvs. hvis 6800U er meget hurtigere end X800XT PE i Doom3 på et site, har dette site så publiceret upålidelige resultater til Nvidias fordel? - Det mener jeg er en gang sludder, medmindre man har særligt konkrete beviser). Endvidere, som der står klart i ovenstående artikel, så svarer sammenligning af 6xFSAA med 8xS til at sammenligne æbler og pærer, men ikke desto mindre er det, hvad man må leve med, såfremt man ønsker højere kvalitetsgrad i VST-testen end 4xFSAA (eftersom 6800U ikke understøtter 6xFSAA). Men du kan dog også sammenligne 6800U med "4xFSAA + 16 ANI" med X800XT PE med "6xFSAA + 16xANI", men selv om 6xFSAA tyngede X800XT PE en smule ned, så var X800XT PE med 6xFSAA stadig næsten 20% hurtigere end 6800U med kun 4xFSAA:
så vidt jeg se så er de seneste test fra www.vr-zone.com at der er det ati som har den gule føre trøje på i halflive 2.
så om en side hælder mere til den ene producent eller den anden, så vider de nøgne tal at nvidia taber til ati i source engine, ligesom Ati tabte til nvidia i Doom3.
så hvad grunden til dit indlæg er red martin. så fisk.
men glæder mig til den færdige udgave af både half live 2 og cs source kommer ud. for dust på den er ganske god, og selv flashbang er blevet som reallife.
så frem med en dato for spillet så er jeg på et køb. *GGGG*
og til proxy4.cybercity.dk så håber jeg hellere ikke at vi skal i den retning. spillede skal ud til så mange som muligt.
Nicorn skrev Friday den 20 August 2004 kl. 17:03: [ svar | nyeste ]
Nu det ikke for at være Nvidia fan, men hvad kan vi bruge Valves VST til. Vil langt hellere se en benchmark fra en bane f.eks City 17, hvor man kæmper mod striderne. Der kan man se hvordan spillet kører når man rent faktisk spiller det. Der tror jeg ikke Geforce 6800 ultra og extreme, Radeon x800 xt PE kan køre med 75fps og højere i 1600*1200 MAX detail, det virker for sygt. Så jeg vil sige at vi skal vente på test resultater fra selve spillet, før dømmer jeg ikke vilket kort der best til HL2.
Bare min mening. Nicorn
Rune skrev Friday den 20 August 2004 kl. 17:10: [ svar | nyeste ]
Præcis, VST-testen er ikke en fuld test, og før vi ser, hvorvidt Gabe Newell har ret i, at VST-testen korrelerer med ydelse i den fulde version af Half-Life 2, så vil det bestemt være fjollet at gå alt for meget op i VST-testen. Men står man for at skulle bestille grafikkort her og nu med fokus på Half-Life 2, så er et spinkelt VST-grundlag formodentlig bedre end ingenting.
Sven skrev Friday den 20 August 2004 kl. 20:07: [ svar | nyeste ]
Jamen, altså jøsses da. Sikke en diskution fordi ATI vinder en test (af et ikke færdigt spil) over Nvidia, eller modsat at Nvidia vinder en test over ATI i DOOM3!!
Det er det der hedder konkurrence, venner. Tænk på alternativet. F.eks hvis ATI vandt i alle spil i alle prisklasser (Kan nogen sige Ferrari i Formel 1?), så ville ATI hurtigt blive enerådende, og derefter ville udviklingen gå væsentligt langsommere, og high-end kortene ville sikkert blive noget dyrere. Som det er nu, er der 2 dygtige firma'er der konkurrerer om placeringer, både i high-end (mest interessant, men ikke det med mest salg i) og i mid-end samt low-end. Da HWT mest er til high-end er det naturligt, at det er her fokus bliver sat.
Indtil videre giver jeg ikke ret meget for denne VST-test, men derimod har Rune i andre artikler jo fint beskrevet forskellene mellem ATI og Nvidia i spil der rent faktisk kan købes!! Og jeg ser da også meget frem til en rigtig test af HL2, selvom jeg netop har købt et POV 6800GT kort.
Hvilket bringer mig frem til det næste punkt. Hvordan kan I blive så ophidsede over at et kort man ikke kan købe, vinder i en test man ikke kan downloade, og som er bygget over et spil der ikke er udkommet???
Hvis det havde været muligt at købe et X800XT PE (helst et HIS), så havde det været sådan et jeg havde nu, men efter at have ventet forgæves i flere måneder, valgte jeg et fra "fjenden", og det har jeg ikke fortrudt. Uanset om det blev et ATI eller Nvidia, er holdbarheden ikke nær så lang som mit nu kasserede 9700Pro, da næste opgradering vil indeholde nyt mobo, CPU, RAM, grafikkort og måske lydkort (afhængig af kvaliteten af onboard lyd på fremtidens mobo), samt at Longhorn med ny directX-version sikkert er her inden for 2 år, så lad nu være med at skændes, og lad os i stedet for glædes over konkurrencen mellem ATI og Nvidia. AMD og Intels indbyrdes konkurrence har jo også givet masser af udvikling samt lavere priser til os forbrugere.
Vi ved meget mere om dette om ½ år, dels STALKER, Nam67, FEAR er udkommet og gennemtestet og dels hvilke spil der til den tid er annonceret på DOOM3-enginen hhv HL2-enginen.
proxy4.cybercity.dk skrev Friday den 20 August 2004 kl. 21:50: [ svar | nyeste ]
62.79.17.129 skrev Friday den 20 August 2004 kl. 21:53: [ svar | nyeste ]
nu har jeg siddet og læst denne test og de efterfølgene kommentarer igennem ligesom jeg gjorde med testen af doom3 ikke fordi nogle af spillene intereserer mig,det jeg syntes er utrolig er at folk falder på røven over en test og absolut skal have det grafikkort der er hurtigst i lige netop det/de spil
folk må sku da have for mange penge hvis man ofrer 3000-5000 kr for et grafikkort bare for at kunne spille doom3 eller hl med alt slået til max
de billeder i sider og ser er still billeder og der sider i og vuderer hvad der er bedste billedkvalitet i selve spillet går det sku så stærkt at man ikke når at se om den ene eller anden mursten i væggen er autentisk
jeg sider selv med et 5900xt og det eneste jeg forlanger er at spillet ikke hakker og at der er en nogenlunde billedkvalitet,og det opfylder mit kort til fulde
p.s undskyld rune mit indlæg er offtobic
grunden til at folk måske også mig selv, more sig over at ati i denne forløberige test nakke doom3. måske er, at de sidste par uger hvor domm3 har været ude, har dem som hælder mest til doom3 og nvidia har postulere at deres kort er det bedst da det jo er bedst til doom3.
Hvis man ikke kan diskutere om det ene eller det ander er bedre til spil, hvad er så meningen. der hvor jeg ikke gider mere er når folk bliver fanboys. og slet ikke kan finde ud af at føre en civilisert diskution.
62.79.17.129 --> hvad er der galt i at give 3600 kr for et kort.. hvis nu man har pengene og lysten til at bruge dem på det. synes det er fedt da jeg efter at have ventede ca 4-5 måneder på at herkules 9700 pro kom til landet og kunne købes, for der med kunne jeg spille med den flotteste grafik og sådanne som forløblige test viser på cs source og denne vrt test så holder mit kort stadigvæk en ganske god ydelse.(spørg rune han har også sådanne et)
det vil sige jeg har kunne spille med næsten top grafik i 1280 X 1024 med det meste på fuld knald på. og næste gang jeg skifter (2005) bliver det i samme prisklasse. for man får en gangke god ydelse.
alt kommer til den som venter.
så keep up the test, så vi har ting at snakke om og drømme om til vores nye superpc *GGGGG*
Tracer skrev Saturday den 21 August 2004 kl. 02:18: [ svar | nyeste ]
Rune jeg har et lille spørgsmål vedrørende SLI, da jeg desværre var ude at købe et 9800 XT 256 2 uger før X800 kom ud. Nu har tænkt på at evt. bruge 2 x 6800 GT i en SLI config istedet.
Har i lavet nogle test med SLI , eller er det for nyt, jeg har hørt at det bare er nogle enkelte boards der understøtter SLI endnu ?
I forhold det til testene ovenover så er det da helt klart at Nvidia rykker, da ATI slet ikke har noget der ligner med dobbelte kort ?
Jeg mener 2 x 6800 GT må da give mindst 80 % mere performance end et enkelt XT800PE ?
Rune skrev Saturday den 21 August 2004 kl. 02:57: [ svar | nyeste ]
SLI er endnu for nyt (=ren paper-launch), og der eksisterer såvidt jeg ved ingen testresultater i 3D-spil fra uafhængige testsites. SLI kræver PCI Express x16, og før nForce4 bundkort udkommer ca. til vinter (nForce4 understøtter 2 x PCI Express x16 grafikkort (dvs. 1xPCIe x16 + 1xPCIe x8)), så er SLI næppe interessant. Ønsker du senere SLI, så er du aktuelt nødt til at købe PCI Express x16 kompatiblet bundkort og SLI-kompatibelt grafikkort (f.eks. 925X med Pentium4 5x0 cpu, som dog bliver meget varme, og er markant langsommere end Athlon 64, og derfor ikke umiddelbart kan anbefales). Det vides endnu ikke, hvor hurtigt f.eks. 2 x 6800GT vil være ifht. 1 x 6800GT (men 2x er næppe 100% hurtigere end 1x i dette tilfælde - Nvidia ser ud til at regne med, at 2x er ca. 80% hurtigere end 1x), effektforbruget vil dog fordobles (kan resultere i stor varmeudvikling inde i kabinettet og kræve kraftig strømforsyning) og du vil også opleve noget mere larm fra 2x kølesystemer på grafikkortene - så jeg ville ikke selv overveje SLI, før vi ser pålidelige testresultater.
Psycho skrev Saturday den 21 August 2004 kl. 10:40: [ svar | nyeste ]
Det er i første omgang tydeligt at der er MEGET stor forskel på hvad kortene er gode til.
Doom 3 bruger z-only til at etablere zbufferen til en start og især stencil only (som ikke er med her, men som kører samme hastighed, eller måske endnu mere ekstremt) rigtigt meget til at tegne shadow volumes fra alle lyskilder (den fylder skærmen indtil flere gange med det), og derfor får nvidia rigtigt meget ud af deres 32x0 mode her. Onde tunger vil nok også kalde doom3 et Geforce3 minded spil (meget simpel fillrate og een shader til at rendere det hele, som nærmest udelukkende består af texture opslag).
HL2 bruger vist en del avancerede 2.0 shaders, og udfra hvordan det ser ud osv vil jeg tro at de hverken laver et zpass eller bruger shadow volumes.
Asger skrev Saturday den 21 August 2004 kl. 11:36: [ svar | nyeste ]
@ Psycho: "Onde tunger" !!!! Næh så galt er det ikke en gang.... Jeg er ret sikker på at nVidia selv har udtalt at de nærmest har designet serie 6 med Doom3 for øje. Så mere hemmeligt er det vist ikke.
Rune skrev Saturday den 21 August 2004 kl. 13:22: [ svar | nyeste ]
Så er XBitLabs også med, XBitLabs skriver desværre ikke, hvilke testindstillinger, som er anvendt i VST-testen, og resultaterne minder lidt om resultater fra Gamers Depot og Tech Report:
Med 4xFSAA og 8xANI fører X800XT PE med 19% over 6800U. XBitLabs har også testet mange flere opløsninger og tillige selve CounterStrike: Source - læs det hele her:
Rune skrev Saturday den 21 August 2004 kl. 13:31: [ svar | nyeste ]
Firingsquad har også testet CounterStrike: Source (BETA), men denne test kræver desværre så lidt, at det fulde potentiale hos forskellige high-end grafikkort først afsløres i 2048x1536 (med FSAA og ANI) - læs det hele her:
IGN er også ude med resultater fra VST-testen, men deres resultater er fuldt ud identiske med Gamers Depot (pånær ét sted ud af 24, så de kan ikke engang skrive rigtigt af), så alt tyder på, at IGN har kopieret diverse resultater direkte fra Gamers Depot, sammenlign selv:
Min personlige konklusion er (stadig) at et GeForce 6800GT i ~3.500 kr. niveauet klart er det bedste bud på et meget hurtigt grafikkort, hvis man også skal kigge en lille smule på prisen (3.500 kr. er dog stadig mange penge for et stykke print med nogle metal dimser på !)
Det yder super-godt i Doom3 - hvor det out-performer både X800 Pro og XT i stort set alt. Og i denne test ligger det (9 ud af 10 gange) over et X800 Pro og meget tæt på et 6800-ultra (ingen kan åbenbart røre XT).
Så HVIS kortet en dag bliver tilgængeligt i butikken (mit check p.t. på EDB-priser viser at ingen har et GT kort) og det så kan fås med en out-of-the-box Artic Cooling køler (aka Galaxy), så ligner det en "vinder" ;)
SHG.dk leverer GT til tiden, du skal blot bestille forud ...
Sven skrev Sunday den 22 August 2004 kl. 05:12: [ svar | nyeste ]
Der kommer meget få antal af bl.a. GT kort. Jeg var smadder heldig sidste uge, da jeg så Midtdata havde fået POV 6800GT på lager, så jeg bestilte med det samme (ca kl 13), og kl 15:30 var de udsolgt igen, og har SVJV ikke været på lager siden.
Jeg er MEGET tilfreds med dette kort indtil nu :-), selvom jeg helst ville have haft et X800XT PE.
Kiwi skrev Sunday den 22 August 2004 kl. 10:04: [ svar | nyeste ]
Set fra en modders synsvinkel er X800pro VIVO et sejt køb ;-) Gav 3500.- for kortet efter 10 minutters mod, montering af vandkøling og en smule voltmod (1.6vgpu, standard XT PE 1.45vpgu) kører jeg 595mhz på kernen og kernen bliver under kraftig load ikke varmere end 42 grader. Det er 8 grader mindre end min kammerats 6800ultra (også vandkølet) er i idle ;-) Skal dog fjerne over current protection før jeg kan clocke højere...
Mht. til ydelses forspring til ATI i HL2 vs. specielle optimeringer kan vi lige tage den endnu en gang: Hvis man kigger på Tomb Raider AOD, som pt. er det spil der benytter flest shader funktioner, er X800 altid foran på trods af spillet er med i Nvidias TWIMTBP kampagne. I pixel shader intensive timedemos kan X800pro endda jorde 6800ultra, så ydelses forspringet behøver ikke komme pga. af specielle optimeringer. Ydermere er X800 også hurtigere til geometric instancing, er dog ikke klar over om denne funktion bruges særlig meget i VST, men i selve Halflife 2 skulle det blive meget udbredt. Så mens mange ikke fatter grunden til at ATI ikke yder godt i Doom3 (der er dog en interessant artikel her: ), har vi før set ATI x800 være hurtigere til pixelshader intensive spil.
Btw. til alle dem der mener at ATI har tabt pga. SLI.... Faktisk har der i lang tid været maskiner der har brugt flere ATI kort. Bla. har E&S Renderblast og SimFUSION modellerne op til 4x 9800XT siddende i sig. http://www.es.com/news/2004+press+archive/042004.asp . R420 skulle endda være forberedt til at op til 256 GPU'er kan arbejde parallelt http://www.theinquirer.net/?article=17889 . Så mon ikke 2x 6800ultra kort i SLI ville få slag af 256x X800XT PE med 1GB på hvert kort? ;-)
Rune skrev Sunday den 22 August 2004 kl. 14:32: [ svar | nyeste ]
Udvikling af 3D-spil tager nu så lang tid, og R420 og NV40 er så meget hurtigere end forrige generation, at der næppe vil være mange spil, som behøver dobbelt ydelse af X800XT PE eller 6800U foreløbigt - dvs. det tog Id Software over 4 år at udvikle Doom3-enginen, mens Unreal3 næppe bliver relevant før tidligst 2006 (og chancen for forsinkelse til 2007 eller senere er nok ikke helt ringe...), så når der engang kommer spil, der formodentlig kræver meget mere regnekraft end R420 eller NV40 tilbyder, så eksisterer sandsynligvis R500 og NV50, som egenskabsmæssigt og måske ydelsesmæssigt vil være mere attraktive end 2 x NV40 i SLI - men det må tiden vise. Men selvfølgelig kan det være, at 2 x 6800U kan muliggøre gode billedrater med 8xS aktiveret (men i dette tilfælde vil Nvidia nok anbefale strømforsyning på 500-600 watt, og mange af disse er ikke blandt de mest støjsvage)...
Kiwi skrev Sunday den 22 August 2004 kl. 17:44: [ svar | nyeste ]
Rune jeg er helt enig med dig der, det var bare fordi SLI fra Nvidia endnu en gang blev trukket frem. Mange folk virker til at have den indstilling at Nvidia har en stor fordel i at kunne køre SLI, og der har været mange diskussioner der er kommet ind på at ATI måtte se sig slået på det område og at VIRKELIG high end ydelse ville komme fra Nvidia osv. osv.. Så er det jo egentlig meget ironisk at ATI R350/360 kort/GPU'er har kunne køre parallelt, før al den 6800SLI hype. Jeg er dog ikke klar over om alle GPU'erne sidder på samme kort (som på de gamle MAXX kort), eller om de bruger seperate kort. Men stadig, hvis ATI med R420 kan lade op til 256 GPU'er arbejde parallelt er der vist ingen problemer med at komme øverst i benchmarks...
cital:Så mon ikke 2x 6800ultra kort i SLI ville få slag af 256x X800XT PE med 1GB på hvert kort? ;-)
LOOOOOOOOOOOOOOOOL.
R fe skrev Sunday den 22 August 2004 kl. 13:31: [ svar | nyeste ]
heheheh så kan man jo også undre sig over hvad der bliver dyrest....de 256 kort eller det overdimensioneret supermegagigantikumkabinet der skal specialdesignes.....>_<
NIX! Men arkitekturen tillader design af et kort med 256 CHIPS, hvilket naturligvis er helt teoretisk. Der har aldrig været tale om paralelle KORT. (Andre steder end her altså!)
port70.ds1-ng.adsl.cybercity.dk skrev Sunday den 22 August 2004 kl. 22:16: [ svar | nyeste ]
hwat is best? 9800 pro 128mb or 6600gt ?
Rune skrev Monday den 23 August 2004 kl. 12:31: [ svar | nyeste ]
Formodentlig 6600GT, men det ved vi først med sikkerhed, når 6600GT er blevet testet på omfattende måde.
Kiwi skrev Monday den 23 August 2004 kl. 12:53: [ svar | nyeste ]
6600GT skal sammenlignes med X700XT, så vidt jeg ved kommer 6600GT ikke til AGP og 9800pro kommer ikke til PCI-X. Så der er ingen måde man direkte kan sammenligne dem på....
Henrik skrev Monday den 23 August 2004 kl. 15:48: [ svar | nyeste ]
Jeg har ikke selv tid til at nærlæse alle originalartiklerne, så derfor stiller jeg spørgsmålet her. Er der nogen af de benchmarks der er lavet, hvor de "kun" har enablet AF mens FSAA er slået fra?
Rune skrev Monday den 23 August 2004 kl. 18:00: [ svar | nyeste ]
Ikke såvidt jeg husker, det er enten helt uden FSAA og ANI, eller med både FSAA og ANI.
Henrik skrev Tuesday den 24 August 2004 kl. 11:10: [ svar | nyeste ]
Ærgerligt. Grunden til at jeg syntes det kunne være interessant er at Doom 3 i 1600x1200 med 8xAF er en ganske fantastisk oplevelse og at jeg på ingen måde har trang til at enable FSAA. Jeg kunne forestille mig at HL2 i 1600x1200 med AF vil være tilsvarende fantastisk og FSAA i denne opløsning vil bidrage med for lidt i forhold til ressourcerne det vil beslaglægge.
Jeg blev i sidste uge den lykkelige ejer af et 6800GT. Selv i lyset af de benchmarks der her er fremkommet fortryder jeg ikke at jeg til sidst valgte dette kort - hvilket nok er godt når nu man har spenderet 3500 på skidtet =) Havde jeg valgt et X800 baseret kort er jeg sikker på at jeg ville have det på samme måde. Der er ingen tvivl om at lige meget hvilket high-end kort man vælger fra ATI eller NVIDIA får man en helt fantasktisk oplevelse i både Doom 3 og Half-Life 2 - når det ellers engang, forhåbentlig meget snart, findes i butikkerne.
Prøv lige at læse artiklen lidt grundigere før i kammer helt over. Der er tale om speciele kort med flere CHIPS på hvert kort. Ikke maskiner med scalerbart antal af standard kort.
Kiwi skrev Monday den 23 August 2004 kl. 17:28: [ svar | nyeste ]
Yeps Kimi de sidder i cluster... Pointen var heller ikke om der skulle sidde 256 seperate grafikkort i en maskine, men nærmere at ATI's GPU'er ikke har problemer med at arbejde parallelt. Hver gang der snakkes high end kort trækkes Nvidia 6800Ultra SLI frem som den ultimative løsning, men ATI skulle udfra ovenstående ikke have de store problemer med at smide kort med flere GPU'er på markedet og da R420 bruger mindre strøm end NV40 ville et X800XT med 2x 420 GPU'er i teorien være en mere opnåelig løsning for en normal slutbruger med en 550W PSU...
den med de 256 kort er en JOKE. utroligt at alt skal tages så seriøst.
hvad betyder LOOOOOOOOOOOOOOOOOL for jer.
Kiwi skrev søndag den 22 august 2004 kl. 10:04 udrag af hans tekst:
Så mon ikke 2x 6800ultra kort i SLI ville få slag af 256x X800XT PE med 1GB på hvert kort? ;-) <-- se han smilie
jesper w skrev søndag den 22 august 2004 kl. 12:34:
cital:Så mon ikke 2x 6800ultra kort i SLI ville få slag af 256x X800XT PE med 1GB på hvert kort? ;-) <--- se min smilie
LOOOOOOOOOOOOOOOOL.
(eneste som er til at misforstår at er jeg skrev l i citat)
come on..
Mick skrev Monday den 23 August 2004 kl. 22:27: [ svar | nyeste ]
Uddrag: "... the ATI X800XT PE was a jump ahead of the NVIDIA card. In the 1600x1200 test with 4xAA and 8xAF, ATI was 20% faster in average framerate and had a higher minimum framerate as well. If these numbers hold true with final drivers and a shipping version of the game, then the ATI card would most likely give you a better overall gaming experience than the 6800 Ultra."
Asger skrev Tuesday den 24 August 2004 kl. 01:22: [ svar | nyeste ]
Citat: "Er der ikke noget galt der, siden at forskellen imellem GT og ULTra er så minimal, når man sammenligner med pro og xt?"
Nej, 6800Ultra er blot et 10-15% overklokket 6800GT, hvor imod x800Pro kun har 12 pipelines mod XTs 16 pipes og 10% højere klok.
Efter min mening er X800Pro et fejlslagent kort ift. prisen som ligger på linie med 6800GT. Det burde være prissat midt mellem 6800 og 6800GT.
Enesete X800Pro der giver mening er VIVO hvis man tør modde den.
Og hvor er ATIs 8 pipe kort? 16-12-4 er da en underlig produktlinie...
ATI troede at 12 pipelines var nok til et high end kort, derfor det fejlslagne x800 pro design.
ATI mangler et "X800GT" med 16 pipelines, en mindre clock end x800xt og prissat som 6800 GT. Det havde kunne tage kampne op i sin prisklasse.
Mick skrev Tuesday den 24 August 2004 kl. 09:39: [ svar | nyeste ]
At kalde X800 PRO for "fejlslagent" er direkte *forkert*.
Hvad er det der gør man mener ting med et er behæftet med mangler og fejl - blot fordi et andet kort er hurtigere?
Umiddelbart er GT bedre, men der findes altså andre ting end fps som afgør valget af ens 3D kort (med mindre man er døv naturligvis). Fx. støj og strømforbrug - eller hvis man er til den slags: Hvad kortet kan overclockes til *G* (her tror jeg at X800 PRO slår 6800 GT - med standardkøler i hvert fald).
Biler er heller ikke "fejlslagne" fordi andre biler kører lidt længere på literen. Desto flere muligheder vi har at vælge imellem desto bedre. NVIDIA og ATI synes at følge forskellige strategier - bedre end hvis alting smagte ens IMO.
proxy4.cybercity.dk skrev Tuesday den 24 August 2004 kl. 11:13: [ svar | nyeste ]
Den nyeste trailer fra HL2, Ravenholm, viser virkelig at ventetiden på dette spil ikke har været for gæves, det er jo simpelhent for genialt.
Mick skrev Tuesday den 24 August 2004 kl. 15:36: [ svar | nyeste ]
Ja - jeg så "Trainstation" demoen forleden og jeg er ganske enig. Selvom jeg har ventet længe på HL-2 så ventede jeg gerne 1 år til.
Der er simpelthen -tænkt- på detaljerne i det spil. Og den slags tager tid.
Bevægelserne er så realistiske at selv DOOM 3 blegner en smule - og det skal siges at jeg ellers finder DOOM 3 en ganske sej oplevelse (og med mere intens atmosfære end i FarCry).
Med 2 så fremragende engines (3 hvis vi tager Farcry med) burde vi kunne forvente nogle meget flotte titler i de kommende år.
Så kan vi klare os indtil Unreal 3 engine dukker op... *G*
Rune skrev Wednesday den 25 August 2004 kl. 18:17: [ svar | nyeste ]
Det ser ud til, at ydelsen er så ringe med Nvidias DX9-kompatible grafikkort (=GeForceFX), dog ikke NV40 og nyere grafikkort, hvorfor Valve har deaktiveret DX9 på GeForceFX:
"Based on the screenshots and performance benchmarks, it appears that not only do GeForce FX cards default to DX8/DX8.1, but they also can’t be forced to run Valve’s DX9 path in the Counter-Strike: Source beta release. Instead, the maximum level GeForce FX cards currently support is DirectX 8.1.
Fortunately, Valve can produce most of Half-Life 2’s most stunning effects with 1.4 shaders, even the 8.0 code path looks similar, producing an image that looks quite good. As a result, you may have a hard time seeing some of the differences between the DX8.1 path and the DX9 path until you run the two side-by-side."
Rune skrev Thursday den 26 August 2004 kl. 15:35: [ svar | nyeste ]
Også Anandtech har testet via VST, og fandt, at X800XT PE var 18% hurtigere end 6800U i 1600x1200 uden FSAA og ANI, mens forskellen steg til 25% med 4xFSAA og 8xANI. I 2048x1536 var forskellen hhv. 23% og 32% uden og med 4xFSAA og 8xANI; læs det hele her:
Så ingen avancerede DX9-egenskaber som f.eks. "High Range Dynamic Rendering" til GeForce3-4 (Ti) eller GeForceFX 5200-5950 (Ultra), mens diverse avancerede DX9-egenskaber burde virke på gammelt Radeon 9500 grafikkort (dette er vist det korte af det lange, såfremt aktuelle forhold ved CounterStrike: Source og Video Stress Testen bliver gyldige i Half-Life 2).
Skøt skrev Friday den 27 August 2004 kl. 11:32: [ svar | nyeste ]
Nu er det jo ikke noget der giver os svar på hvornår vi kan spille HL2, men jeg vil da lige nævne for intereserede at hl2 begyndte at preloade på steam inat :-)
62.61.141.226.generic-hostname.arrownet.dk skrev Friday den 27 August 2004 kl. 19:19: [ svar | nyeste ]
Ja, det er rigtigt, men deres servere er fyldt op hele tiden, og så kan man desværre ikke downloade den. Ikke at det gør så meget, da man ikke kan spille den før den bliver udgivet alligevel.
Skøt skrev Saturday den 28 August 2004 kl. 08:39: [ svar | nyeste ]
Gandalf skrev Saturday den 28 August 2004 kl. 09:43: [ svar | nyeste ]
Jo nu virker det sørme..
Gandalf skrev Saturday den 28 August 2004 kl. 09:46: [ svar | nyeste ]
W00t, på trods af Gabe's lidt haltende troværdighedslevel (på datoer altså, ikke spiludvikling), så tror jeg faktisk på ham :D
Hvis jeg nu tænker rigtigt, vil man så være i stand til at få HL2 på steam meget før, fordi at det tager ca. 2 uger fra at det er gået guld til at det lander i butikkerne?
Skøt skrev Saturday den 28 August 2004 kl. 09:59: [ svar | nyeste ]
Hvis diverse rygter på hl2 forums er sande, så er der en aftale mellem Valve og Puiblisheren, om at steam først må frigive på udgivelsesdatoen (altså når spillet rammer de store butikker i USA)
Skøt skrev Saturday den 28 August 2004 kl. 11:54: [ svar | nyeste ]
Uha Uha, den med guldet skal vist tages med et stort gram salt:
fra hl2fallout:
"After a close scrutiny of Gabe Newell’s account history on the forums, we've come to the conclusion that the gold post is a fake. While we can't be 100% certain at this stage, all indicators point towards someone hacking the forum account"
var ellers rapporteret på både ign & gamespot :(
:(
Gandalf skrev Saturday den 28 August 2004 kl. 11:55: [ svar | nyeste ]
Det læste jeg også lige... :(
Pis...
Rune skrev Monday den 30 August 2004 kl. 12:15: [ svar | nyeste ]
Hvad er forskellen på DX7, DX8 og DX9 i Half-Life 2? Firingsquad har netop modtaget en omfattende beskrivelse af disse forskelle, som kan læses her:
Endvidere lykkedes det for Firingsquad at aktivere DX9 på GeForceFX-grafikkort, hvorefter det blev evident, hvorfor Valve tvinger GeForceFX-ejere ned på DX8-niveau:
Vi kan her lave en lille liste, som viser, hvor meget hurtigere DX8.1 er på forskellige grafikkort ifht. DX9 (her rangeret således, at grafikkort med mindst tab ved DX9 står øverst):
1. Radeon 9800XT - DX8.1 er 20% hurtigere end DX9
2. Radeon 9600XT - DX8.1 er 25% hurtigere end DX9
3. GeForce 6800 GT - DX8.1 er 31% hurtigere end DX9
4. GeForceFX 5950 Ultra - DX8.1 er 133% hurtigere end DX9
5. GeForceFX 5700 Ultra - DX8.1 er 161% hurtigere end DX9
6. GeForceFX 5600 Ultra - DX8.1 er 240% hurtigere end DX9
Så 9600XT og 9800XT taber mindst ved transition af DX8.1 til DX9, mens GeForce 6800 GT også klarer sig fint. Derimod er DX8.1 fra 133 - 240 % hurtigere end DX9 på GeForceFX, hvilket forklarer, hvorfor disse grafikkort desværre er uegnede til DX9 i Half-Life 2.
Ra skrev Monday den 30 August 2004 kl. 13:32: [ svar | nyeste ]
Lidt frustrerende test at læse - de fortæller godt nok hvad for funktioner der understøttes i de forskellige paths, men bortset fra et par eksempler på forskellige skygge-virkninger savner jeg at de svarer på det grundlæggende spørgsmål:
Er det pænere med DX9?
De forsømmer at kvalitetsvurdere dén spiloplevelse man får med de forskellige paths! Der er jo ingen grund til at opgradere et GeforceFX for at køre DX9 hvis forskellen primært består af forskel på skygger og vand's udseende...
Hvis DX8 var omtrent lige så pænt, kunne man måske endda nøjes med et brugt Geforce4Ti4600, der fås billigt nu...?
Rune skrev Monday den 30 August 2004 kl. 15:24: [ svar | nyeste ]
Efter at have set flere billeder, så ser DX8 umiddelbart ganske pænt ud; den mest iøjnefaldende forskel vil nok være manglen på "High-Dynamic Range Rendering", som tidligere er blevet vist i Half-Life 2; dvs. prøv at downloade denne film:
cache-hors-2.stofanet.dk skrev Thursday den 11 November 2004 kl. 23:32: [ svar | nyeste ]
Hvis der er nogen der ønsker at lege lidt med Dxlevel, så er der nogle console commandoer her:
DirectX 9.0: mat_dxlevel 90
DirectX 8.1: mat_dxlevel 81
DirectX 8.0: mat_dxlevel 80
DirectX 7.0: mat_dxlevel 70
DirectX 6.0: mat_dxlevel 60
DirectX 5.0: mat_dxlevel 50
Rune skrev Monday den 30 August 2004 kl. 16:38: [ svar | nyeste ]
Endnu et site har kastet sig over Half-Life 2 VST, og denne gang ExtremeTech, hvor X800XT PE var 27% hurtigere end 6800U i 1600x1200 4X/8X:
Rune skrev Thursday den 02 September 2004 kl. 11:10: [ svar | nyeste ]
Firingsquad har testet ydelse i CounterStrike: Source på mellemklasse og low-end grafikkort; bemærk, at alle Nvidia grafikkort benytter DX8, mens ATi 9500-9800 benytter DX9:
Rune skrev Saturday den 04 September 2004 kl. 01:36: [ svar | nyeste ]
Hot Hardware har netop publiceret en "Doom3 vs. Half-Life 2"-artikel, hvor X800XT PE kæmper mod 6800U - resultatet er dog, at lige så meget som 6800U vinder i Doom3, lige så meget vinder X800XT PE i Half-Life 2 VST - læs det hele her:
Rune skrev Tuesday den 28 September 2004 kl. 20:55: [ svar | nyeste ]
Firingsquad har testet high-end cpu'er i Half-Life 2 VST og Counterstrike Source, og det korte af det lange er, at Athlon 64 vandt over Pentium4 (husk kun data fra 800x600, hvor grafikkortet ikke er flaskehals, viser reelle cpu-forskelle). Interesserende kan læse det hele her:
Anders skrev Tuesday den 28 September 2004 kl. 21:10: [ svar | nyeste ]
Hvis CPU alligevel ikke er flaskehals ved gængse opløsninger, hvorfor er testen relevant for andet end at kunne sige "Hey! jeg har den hurtigste CPU!"
Rune skrev Tuesday den 28 September 2004 kl. 21:13: [ svar | nyeste ]
Det er den vel reelt heller ikke :-) Dvs. i mange aktuelle spil, så vil grafikkortet være altafgørende, hvis der anvendes høje opløsninger evt. med FSAA og ANI - og dette aspekt illustrerer artikel hos Firingsquad vel også fint via resultater fra 1600x1200, hvor der ingen forskel er på P4 og Athlon 64... En high-end cpu kan måske holde de næste 3-4 år i dag, og selvfølgelig kan det være, at man engang med R600 eller NV60 kan få fuld valuta for sin Athlon 64 FX-53 i HL-2 1600x1200 4xAA/16xANI - hvis man da gider spille HL2 til den tid :-)
82.143.203.237 skrev Friday den 01 October 2004 kl. 18:54: [ svar | nyeste ]
hej jeg har droppet mine planer om his radeon 9800pro og overvejer nu at købe et sparkle Geforce 6800 128 mb til 2400 kr, så jeg ville gerne vide hvordan det klarer sig i Half life 2 i forhold til Radeon 9800xt 256 mb som er det eneste andet alternativ jeg har i mit budget.
82.143.203.237 skrev Friday den 01 October 2004 kl. 23:38: [ svar | nyeste ]
hej det der 3dc jeg har læst ati har understyttes det af Radeon 9800XT eller er det kun X300-X800 der får glæde af det ?
Rune skrev Friday den 01 October 2004 kl. 23:47: [ svar | nyeste ]
Kun Radeon X700-X800 indtil videre:
"It’s important to note that the X600 line doesn’t incorporate the newer features added to the RADEON X800, 3Dc (compression for normal maps) and temporal AA"
82.143.203.218 skrev Tuesday den 05 October 2004 kl. 11:19: [ svar | nyeste ]
den der half life 2 beta hvor henter man den? hvis man kan hente den og er det en form for demo? eller er det en trailer?
GWiZ skrev Tuesday den 05 October 2004 kl. 11:23: [ svar | nyeste ]
Saavidt jeg ved er der ikke nogen beta. Eller demo. Trailere er der dog nok af... bare hop ind paa dailyrush.dk der har de vidst de fleste.
Ellers er der ikke andet for end at vente til de udsender det. :/
GWiZ skrev Tuesday den 05 October 2004 kl. 11:28: [ svar | nyeste ]
D'oh! Valve udsendte jo selvfoelgelig en test, der kunne vise timedemoer af en art..
(men den aner jeg ikke meget om dog...)
0x5358410d.ronxx2.adsl-dhcp.tele.dk skrev Tuesday den 12 October 2004 kl. 22:46: [ svar | nyeste ]
(det var så det? ATI:) With both ATI and NVIDIA’s cards performing so closely to one another in today's games, other aspects such as cooling and noise, driver quality, and arguably more importantly, price and availability will likely play the most important roles in determining which card you purchase. In the latter two areas, NVIDIA clearly has a decisive advantage over ATI, their X800 XT cards are still extremely difficult to find at retail months after launch, only the RADEON X800 PRO has shipped to retail in significant quantities. ATI needs to get their supply problems nailed down quickly if they want get this resolved before the crucial holiday buying season. For now we'll give this round to NVIDIA, but there's still one more Valve release that we're eagerly awaiting: Half-Life 2 itself.
Rune skrev Wednesday den 13 October 2004 kl. 11:15: [ svar | nyeste ]
Dit citat er fra test af CounterStrike Source hos Firingsquad, som ikke ser ud til at være lige så avanceret som Half-Life 2; så det er nok tvivlsomt, hvor meget resultater fra CS: Source repræsenterer Half-Life 2 (om 3Dc er aktiveret i CS: Source har jeg ej heller læst noget om osv.). Så mht. Half-Life 2 er spillet formodentlig stadig åbent - ydelse med Catalyst 4,1x ser også ud til at forbedre ATi's resultater i CS: Source (Firingsquad testede med Catalyst 4,9; XBitLabs med 4,11B):
Men det er generelt ikke store forskelle, som aktuelt adskiller Nvidia og ATi i den færdige version af CS: Source.
Rune skrev Wednesday den 13 October 2004 kl. 11:23: [ svar | nyeste ]
Indtil videre har jeg i øvrigt ikke læst mere om 3Dc i Half-Life 2 end dette citat:
"... we talk to valve quite often about many things, and have interviewed a few of their staff. I already have info about 3DC and HL2 but im under NDA about it."
Nuvel, vi må vel som sædvanligt se tiden an, men såfremt der ikke er fordele med 3Dc i Half-Life 2, så er spørgsmålet naturligvis, hvor meget det fortsat kan betale sig at afvente HIS X800XT PE IceQ2 fremfor at købe Galaxy GeForce 6800GT.
Kiwi skrev Wednesday den 13 October 2004 kl. 13:47: [ svar | nyeste ]
Efter min mening virker resultaterne CPU begrænsede. Det ser ud til at Valve ud fra deres "spørgerunde" har konkluderet at der er flere folk der sidder med små grafikkort og store CPU'er. Derfor er CSS blevet optimeret til stor CPU med mindre vægt lagt på GFX. Hvis du f.eks. tager lave opløsninger i Far Cry er det også tit man ser nVidia kortetne ligger forrest i CPU begrænsede benchmarks, hvilket højst sandsynligt skyldes at deres drivere er mere optimerede.
En anden ting der viser at CSS må have en heftig begrænsning er forskellen mellem pure og eye candy.
I Far Cry Volcano 1600x1200 er forskellen mellem pure og eye candy (4xAA 8xAF) f.eks. 45% (Ultra) og 37% (XT PE), i Havana er forskellen 26 og 19%....
Firing Squads resultater virker mildt sagt lidt underlige... Godt nok står der ikke noget om X-bit labs kvalitets indstillinger, men lidt underligt at en 3200+ fra X-bit Labs åbenbart kan trække 115.3 fps 1024x768 med et 6800ultra. Hos FS trækker det samme kort med en 3800+ max 66 fps. Mon de har glemt at slå max fps fra? ;-)
Kiwi skrev Wednesday den 13 October 2004 kl. 15:55: [ svar | nyeste ]
Hmmmm, endnu mere wierd.... X-bit labs har kørt med højst mulige settings, altså også højere end FS der "kun" kører med "reflect world".
212088089022.sonofon.dk skrev Wednesday den 13 October 2004 kl. 15:18: [ svar | nyeste ]
Who cares if ATI or Nvidia is fastest.. My Choice was made a long time ago when i abandoned Nvidia for ATI.. why you ask... Well only ATI makes the wonderfull and perfect AIW series and I can't wait to get the new X800XT-AIW under my nails.. but until then I will live with my 9800PRO-AIW that runs Doom and all other games just fine :-)
Er der en anmeldelse på ved af Counter-Strike Source, eller kommer den først som en samlet anmeldelse, når Half-Life 2 bliver frigivet?
Jeg ved godt, at hardwaretidende normalt ikke anmelder spil, der udelukkende er rettet mod multiplayer; men jeg synes, at man bør gøre en undtagelse her!
Jeg har kun fundet 2 anmeldelse, og de var begge meget positive:
Man kan kritisere grafikken for at være lidt polygon fattig, og texturerne udnytter næppe mere end 128MB på grafikkortet; men det er jo et multiplayer spil, hvorfor man er lidt mere afhængig af "billedfrekvensen"(?), og da man på hardwaretidende vurderer et spil ud fra andre spil i samme genre, vil man nok alligevel give en tocifret karakter til grafikken.
Fysikmotoren og lydene(det er næsten kun radiobeskederne, som er ændret) giver spillet liv - man føler virkelig, at man bliver beskudt (når det er tilfældet) - klart 11-tal til gameplay efter min mening! Nogle gange kan man ærgre sig over, at det ikke er muligt interagere med dørene - skønt de, modsat mange andre spil, rent har håndtag; man kan heller ikke hoppe op på de ting som behandles af fysikmotoren (tønderne etc.); men forklaringen på disse begrænsninger er nok, at det ville blive misbrugt.
Styringen afviger kun fra quake3 ved, at det tager lidt tid at dukke sig, og man kan ikke "bunny-jumpe".
Nyder man CS:S i begrænsede mængder - som det anbefales med mange spil - er der mange timers underholdning.
Rune skrev Wednesday den 03 November 2004 kl. 09:53: [ svar | nyeste ]
Hverken Jesper, Martin eller jeg bryder os i tilstrækkelig grad om CounterStrike, så uanset grafikken, kan vi desværre ikke anbefale dette spil (dette har i øvrigt intet at gøre med, hvorvidt det er multi- eller single-player; mht. multiplayer ser jeg dog meget frem til Everquest 2). Forhåbentlig vender vi dog tilbage med anmeldelse af Half-Life 2.
Jeg håber ikke, at den opfattelse bygger på en oplevelse på en dansk FFA server - selv verdens bedste spil kan ødelægges af idioter; CS:S er meget bedre end det gamle CS på alle punkter; men spillerne er stadig lige så lamme som i det gamle - man kunne jo ellers håbe, at børnenes compuren ikke var i stand til at trække det.
Som udgangspunkt skal et spil ikke bedømmes på de folk, der spiller det... Jeg kan anbefale, at man prøver spillet sammen med nogle venner.
d40a6371.rev.stofanet.dk skrev Friday den 12 November 2004 kl. 23:38: [ svar | nyeste ]
hi all..... hvordan kommer cs s. til at køre på den com jeg skal ha` ??
Hvis du bygger din PC til CS-S og Half-Life 2, får du formegentlig ikke brug for en så hurtig processor, men bør istedet bruge pengene på et bedre grafikkort.
0x535cb6c3.ronxx2.adsl-dhcp.tele.dk skrev Monday den 15 November 2004 kl. 21:49: [ svar | nyeste ]
hej der så kom tien? PCCD HALF LIFE 2
Klik for større billede. 279,- køb i EL-G!
Release 16.11! HALF-LIFE 2 bestil nu så har du den på release datoen Mere information om
PCCD HALF LIFE 2
Vi sender spillet dagen før release, så modtager du spillet på selve release datoen. Ved bestilling af mere end 2 stk. sælges spillet til Elgigantens normal pris.
Da efterspørgselen vil være enorm på dette spil tager Elgiganten forbehold for evt. leveringssvigt.
Rune skrev Tuesday den 16 November 2004 kl. 16:54: [ svar | nyeste ]
Ja, jeg købte for flere dage siden i El-Giganten for kr. 349,00. Grundet pris-garanti refunderede El-Giganten kr. 70,00 til mig i dag - dvs. har man købt til en højere pris hos El-Giganten, så kan man få prisforskellen retur, hvilket vel er aldeles fremragende service.
Rune skrev Wednesday den 17 November 2004 kl. 00:38: [ svar | nyeste ]
0x535cb6c3.ronxx2.adsl-dhcp.tele.dk skrev Wednesday den 17 November 2004 kl. 14:18: [ svar | nyeste ]
så stoer var ATI IKKE? i forhold til Nvidia
Kiwi skrev Wednesday den 17 November 2004 kl. 16:50: [ svar | nyeste ]
HardOCP bruger overclockede nVidia kort og kører ikke med max settings, og så kalder de Driverheaven biased ;-)
Rune skrev Wednesday den 17 November 2004 kl. 21:11: [ svar | nyeste ]
Ja, dette er et alvorligt problem ved testen hos HardOCP, og resultater fra HardOCP vil derfor blive diskvalificerede mht. oversigtsartikel her på sitet. Resultater fra Anandtech, Firingsquad mm. ser dog kvalificerede ud og snarligt ser vi forhåbentlig resultater fra Tom's Hardware, Tech Report og XBitLabs...
Kiwi skrev Wednesday den 17 November 2004 kl. 18:02: [ svar | nyeste ]
Rune skrev Wednesday den 17 November 2004 kl. 20:41: [ svar | nyeste ]
Firingsquad har også testet Half-Life 2, desværre ligesom Anandtech kun med "Reflect World"; ATi X800XT PE er dog op til 70% hurtigere end 6800Ultra i 1600x1200 4xFSAA 8xANI:
Så ud fra disse resultater ser det ud til, at Nvidia taber stort - Anandtech fandt dog kun forskelle på op til ca. 20% til X800XT PE's fordel relativt til 6800 Ultra.
Gandalf skrev Wednesday den 17 November 2004 kl. 21:52: [ svar | nyeste ]
Huh?? Hvorfor jävla bruger de ATI's beta drivere, men ikke Nvidia's beta drivere? Jeg fik selv kæmpe performance boost da jeg gik til 67.02, de bruger kun 66.93. Jeg kan faktisk godt huske at canal banen var rimlig tung, men den blev meget mere flydende, da jeg gik over til 67.02, uden overdrivelse!
HardOCP viser til gengæld at kortene står meget lige og de bruger Nvidia's 67.02 beta driver... Så indtil jeg har set flere resultater med 67.02 driveren, betrakter jeg HardOCP's benchmarks som mere reele og korrekte.
Gandalf skrev Wednesday den 17 November 2004 kl. 21:52: [ svar | nyeste ]
Btw, stadig intet nyt om 3Dc og evt. fordele ved denne?
fjog skrev Wednesday den 17 November 2004 kl. 22:00: [ svar | nyeste ]
Kiwi JA vi kalder dem biased!
1. Ham der har lavet testen er en del af ATI's beta driver team!
2. De testruns de har lavet er ATI's egne demoer, de har smidt ud til test sitene (mon ikke de er optimeret i hoved og røv, og kørt der hvor de VED nvidia kører dårligst i forhold til deres egne kort?)
Hard-OCP og Anandtech er i mine øjne nogle af de eneste sites der i øjeblikket har repræsentative test idet de bruger egne time-demos de selv har optaget, ikke det propaganda fis fra ATI (eller nvidia for den sags skyld, de ville sgu gøre det samme), desværre for hard-OCP har de som kiwi rigtigt siger brugt overclocked kort, men var det ikke noget med at BFG faktisk sælger disse overclockede kort? Men anyway havde det bedste været standard versionerne. Men at sige at Half-life 2 i gennemsnit skulle være 30% hurtigere end nvidias kort holder bare ikke. Og lur mig om nvidia ikke også formår at optimere til dette spil som med alle andre PR-spil så de får hentet meget af det forspring ATI nu har. Det er jo velkendt at ATI har haft længere tid til at optimere deres drivere til Half-life 2 end nvidia, men herregud de har jo betalt for det. Men i sidste ende tror jeg de to rivaler kommer til at ligge rimelig tæt i dette spil, slet ikke i stil med ydelsesforskellen i Doom 3 (og dens efterflg. spil).
just my 5 cents
fjog skrev Wednesday den 17 November 2004 kl. 22:11: [ svar | nyeste ]
Og ja så er der lige det med driverne. Hvorfor give ATI lov til at bruge en specifik optimeret driver når nvidia ikke må? Men driverheaven er jo IKKE biased nej.... geese....
Kiwi skrev Thursday den 18 November 2004 kl. 09:56: [ svar | nyeste ]
Fjog Driverheaven brugte også en temmelig ny betadriver, at det ikke var den nyeste kan du vel ikke klandre dem for, nVidia smider jo konstant nye ud.... HardOCP har lavet en timedemo af en hel bane, hvilket betyder at de CPU begrænsede områder (som der er mange af) vil jævne resultatet meget ud. Det er rigtigt at Driverheaven godt kan lide ATI, men at mene HardOCP's test er mere reel er noget vrøvl den er mindst lige så biased. Mht. til din Doom 3 opfattelse: http://www.3dchip.de/TestCenter/2004/Sapphire_Gainward/benchmarks5.php . Ups....
Det er rigtigt at Firingsquad ikke brugte nVidias nyeste betadriver hvilket sikkert vil gøre brugen af "vand shadere" mindre belastende for nVidia kort. Mht. til drivere så skulle nVidia nok få fikset deres stuttering og shimmering før de begynder at optimere....
Der er et lille tweak her til Rune (og alle andre med ATI DX9 kort ;-)): http://www.beyond3d.com/forum/viewtopic.php?t=18170 det skulle give endnu bedre ydelse på ATI kort (ihvertfald hvis man har en rimelig CPU). Mht, til benchmarks er det også værd at bemærke at forskellen mellem ATI og nVidia kort stiger efterhånden som presset øges, det tyder på at i mindre CPU begrænsede spil baseret på Source engine vil ATI for alvor lægge afstand til nVidia. I den forbindelse venter jeg spændt på de specielle ATI levels som Gabe omtalte på Steam, disse burde være langt mindre CPU begrænsede og derfor vise forskellen mellem 6800/ X800 mere tydeligt.
Kiwi skrev Thursday den 18 November 2004 kl. 09:57: [ svar | nyeste ]
Ovenikøbet er der så "reflect world" indstillingen... Den tog en del på nVidia kort i VST testen, så mon ikke det også vil tage en del i Halflife 2?
Rune skrev Thursday den 18 November 2004 kl. 11:29: [ svar | nyeste ]
Det ser desværre også ud til, at Anandtech kun har testet X800XT, og ikke X800XT PE. Eftersom vores fokus ligesom i tidligere "Far Cry"-ydelsesartikler vil blive begrænset til udelukkende GeForce 6800 Ultra (400/1100) og Radeon X800XT PE (520/1120), så betyder dette, at inklusionskrav kun er opfyldt af Firingsquad og Driver Heaven indtil videre - og vi ønsker resultater fra mindst 3 forskellige test-sites, før vi udregner gennemsnitlige forskelle (fra 1600x1200 med og uden FSAA og ANI) - så vi afventer stadig resultater fra Tom's Hardware, Tech Report, Digit-Life (iXBT) eller f.eks. XBitLabs.
Rune skrev Thursday den 18 November 2004 kl. 12:00: [ svar | nyeste ]
Det ser i øvrigt ud til, at HardOCP har måtte ændre deres konklusion en del:
"Update: We have gone back and updated our pages with a couple of graphs that show Maximum IQ settings in terms of AA and AF. Without a doubt the ATI Radeon X800XT-PE did by the far the best job at delivering a playable gaming experience. Of course it is up to the end user to determine if turning these options on give you any tangible gaming returns, but without a doubt if you want to run "ultra high quality settings," the ATI Radeon X800XT-PE gives a much better return than NVIDIA's solution."
Rune skrev Thursday den 18 November 2004 kl. 13:22: [ svar | nyeste ]
Jeg testede netop med Radeon 9700 Pro (351/324 - Catalyst 4,11, ingen vsync) og Athlon 64 2530/230, og jeg målte følgende mht. Anandtech's demoer i Half-Life 2 (maksimalt detaljeniveau uden FSAA og ANI - dvs. "Reflect All" mm.):
Hvis vi nu dividerer FPS fra 1600x1200 med FPS fra 1024x768, så kan vi vurdere, hvilken test, der er mest cpu-afhængig, og hvilken, som er mest grafikkortafhængig (jo tættere på 1, desto mere cpu-afhængig - og omvendt mht. grafikkort-afhængighed):
Dvs. leder man efter grafikkortforbedringer, så bør det være nok kun at afvikle prison-testen, mens nye cpu-fordele bedst ses i city17. Dette giver også god mening, da der er flere medhjælpere (kunstig intelligens) i city17, mens der er mange særlige lysforhold i prison-demo'en. Så med denne viden kan vi effektivt begynde at vurdere betydningen af nye drivere samt modificerede konsol-parametre (i det omfang ovenstående målinger på Radeon 9700 Pro og Athlon 64 kan generaliseres).
Kiwi skrev Thursday den 18 November 2004 kl. 13:46: [ svar | nyeste ]
Nice nok, så er vi lidt bedre rustet :-) Kan du mærke forskel med tweaket? Ellers ret så overlegen ydelse med et 2 år gammelt kort... Jeg har ikke selv mulighed for at teste mit kort før på tirsdag, har ikke internet derhjemme endnu.
Rune skrev Thursday den 18 November 2004 kl. 13:53: [ svar | nyeste ]
Næste punkt på dagsordnen er så beta-Catalyst 4,12 - og her fandt jeg følgende:
Prison-demo 1600x1200 MAX (uden FSAA og ANI)
Catalyst 4,11 = 39,6 FPS (tidligere afrundet til 40)
Catalyst 4,12B = 44,4 FPS
Se dette var jo en ikke helt ligegyldig forskel - dvs. det 2 år gamle Radeon 9700 Pro bliver hele 12% hurtigere med 4,12B end med 4,11, og det endda i 1600x1200 med maksimalt detaljeniveau uden FSAA og ANI. Her kan også illustreres en relevant pointe mht. valg af test - for havde vi blot testet med den mest cpu-afhængige City17-test, så havde resultatet været således:
City17-demo 1600x1200 MAX (uden FSAA og ANI)
Catalyst 4,11 = 50,9 FPS
Catalyst 4,12B = 51,6 FPS
En forskel på kun 1%, hvorefter vi kunne have konkluderet, at 4,12B var uden betydning. Så valg af test bør gøres med en vis omtanke, ellers skylles barnet ud med badevandet. Nuvel, med optimal driver på plads kunne +r_fastzreject 1 være interessant...
Rune skrev Thursday den 18 November 2004 kl. 14:23: [ svar | nyeste ]
City17-demo (1600x1200 alt i max. uden FSAA og ANI)
+r_fastzreject 1 (cpu) = 51,7 FPS
+r_fastzreject 0 (standard) = 50,9 FPS
+r_fastzreject -1 (grafikkort) = 52,2 FPS
Så "-1" ser ud til at tilbyde bedste hastighed (der var ingen påvirkning i prison-demoen) med op til 3% (2,6%) ifht. standardindstillingen. Dvs. ikke det helt vilde, men lidt har vel også ret.
Gandalf skrev Thursday den 18 November 2004 kl. 16:06: [ svar | nyeste ]
Ok, så er jeg klar til at benche, men hvordan afspiller man demofiler og benchmarker man så bare med FRAPS eller..?
Rune skrev Thursday den 18 November 2004 kl. 16:12: [ svar | nyeste ]
Dvs. under keyboard-indstillinger klikker du på "enable console" (kræver vist, at du benytter engelske tastaturindstillinger - jeg kunne ikke få det til at virke med dansk tastatur), hvorefter du aktiverer konsollen med ½-tasten. Skriv derefter "timedemo [navn på demofil]" (uden citationstegn). Demofiler skal placeres i Half-Life 2/HL2-mappen og bliver automatisk genkendt. Download evt. demofiler fra Anandtech.
Gandalf skrev Thursday den 18 November 2004 kl. 16:45: [ svar | nyeste ]
Pinligt, jeg kan ****** ikke finde keyboard language options noget sted i kontrolpanelet! Hjælp :'(
Rune skrev Thursday den 18 November 2004 kl. 16:51: [ svar | nyeste ]
Prøv kontrolpanel -> internationale og sproglige indstillinger -> sprog (vælg detaljer og dernæst engelsk).
Gandalf skrev Thursday den 18 November 2004 kl. 17:09: [ svar | nyeste ]
Ok, gik i gang med at benchmarke på HardOCP's demoer, men efter 12 minutter gad jeg ikke mere - de er alt for lange!!
Bruger anandtech's i stedet... Hvilken måde brugte du, Rune, på at måle gennemsnitlig FPS?
Rune skrev Thursday den 18 November 2004 kl. 17:40: [ svar | nyeste ]
Jeg brugte Anandtechs demoer, jf. min kommentar fra "18 november 2004 kl. 13:22" (se længere oppe i denne tråd).
Gandalf skrev Thursday den 18 November 2004 kl. 18:07: [ svar | nyeste ]
Jamen hvordan maalte du FPS, det var det jeg mente? Goer den det af sig selv eller brugte du FRAPS?
Rune skrev Thursday den 18 November 2004 kl. 18:15: [ svar | nyeste ]
Det fungerer ligesom Doom3 og Q3A osv., programmet måler selv din billedrate, du har slet ikke brug for FRAPS.
Gandalf skrev Thursday den 18 November 2004 kl. 19:00: [ svar | nyeste ]
Jeg kan godt faa den til at vise FPS, men ikke nogen gennemsnitlig FPS baseret paa en demo.. hvad goer man?
Rune skrev Thursday den 18 November 2004 kl. 22:26: [ svar | nyeste ]
Du skriver blot "timedemo x", hvor x refererer til en demo-fil, derefter kører demo'en igennem, og du ender tilbage i konsollen, hvor du kan se din gennemsnitlige billedrate.
Gandalf skrev Thursday den 18 November 2004 kl. 22:32: [ svar | nyeste ]
Mærkeligt.. Jeg endte bare i konsollen uden nogen gennemsnitlig FPS! Prøver igen, der kan jo være gået noget galt...
Rune skrev Thursday den 18 November 2004 kl. 22:35: [ svar | nyeste ]
Tallene står lidt underligt, måske er det her, at du har mistet orienteringen... Tallet foran FPS er din gennemsnitlige billedrate; variation nævnes også.
Gandalf skrev Friday den 19 November 2004 kl. 00:04: [ svar | nyeste ]
Er Half-Life 2 multiplayer alligevel inkluderet, eller i hvert fald muligt i retail versionen af HL2? Noget tyder på det. Nogle gutter fra HL2world har siddet og rodet lidt med kommandoer og sådan lidt af hvert og de ser ud til at have fundet en metode, hvorpå man kan få almindelig DM multiplayer til at virke - dog er der jo ingen MP levels endnu, derfor ser det meget grimt ud, da de bare har lavet en lille test bane for at teste det...
Så noget tyder på, at Valve bare skal lave nogle multiplayerbaner, skrive en lille mængde kode, måske afbalancere det godt, så har vi multiplayer. Det rygtedes jo også er de ER igang med en almindelig MP del til HL2. Anyway her er link:
Kiwi skrev Friday den 19 November 2004 kl. 08:21: [ svar | nyeste ]
http://www.xbitlabs.com/articles/video/display/half-life.html de konkluderer også at der ikke er den store forskel mellem Forceware 66.93 og 67.02 (max 1 til 2 fps). Ydermere laver nVidia kort fjerne objekter mørkere end på Radeon kort og de har også lidt problemer med tåge, efter deres mening.
0x535cb6c3.ronxx2.adsl-dhcp.tele.dk skrev Friday den 19 November 2004 kl. 20:16: [ svar | nyeste ]
så er HF2 slut? det var et kodt spil.4 år ja et godt spil men kort!
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.