Nvidia NV35 - rygter, specifikationer og testresultater
af Webmaster Thursday den 20 March 2003 kl. 12:38 [ Grafikkort ] Det tyske site Chip Online har publiceret sandsynligvis relativt pålidelige specifikationer vedr. NV35, som er næste VPU-generation efter NV30 (og GeForce FX 5800 Ultra). Ifølge aktuel information tyder meget på, at NV35 udkommer ca. maj-juni 2003, hvorfor GeForce FX 5800 Ultra muligvis ganske snart afløses.
Allerede i starten af marts fremviste Nvidia velfungerende prototype på NV35-grafikkort (Game Developer Conference, Kalifornien, USA):
"With the GeForceFX just starting to make its way into the channel (according to Nvidia), they already have the next generation GPU up and running. It is so far along in fact that they show a brand new version of the "Dawn Demo", but with a special twist. This time, not only Dawn was prancing around on the screen, but her three sisters as well. Of course it didn't take a rocket scientist to see the amount of potential graphics power that this next generation product could be packing. While he declined to release any additional details, he said "We are not ready to give up the performance crown and out next generation product will take performance to another new level when it is released and continue Nvidia's as the performance leader." Nvidia is clearly he is very serious about recapturing the performance crown and of course this is a good thing."
Kilde: http://www6.tomshardware.com/business/20030307/index.html
Det vigtige er her budskabet mellem linierne, dvs. Nvidia fremviser allerede nu - før NV30 overhovedet reelt er udkommet - demo baseret på NV35. Dette ville Nvidia næppe gøre, medmindre de var særdeles pressede og vidste, at NV30 er et mindre heldigt produkt (grundet ekstremt larmende kølemekanisme ved navn FXFlow). Det er næsten uhørt at præsentere demo af NV35 (næste generation), før NV30 (forrige generation) er udkommet, fordi det næppe er købsincitament at vide, at NV30 således allerede er forældet/erstattet af bedre produkt.
Kilde: http://www6.tomshardware.com/business/20030307/index.html
Dawn og hendes tre søstre på NV35. NV30 blev tidligere fremvist via tilsvarende demo, som dog kun indeholdt éen person. Det vil dog undre meget, hvis NV35 skulle blive 4 gange hurtigere end NV30, hvilket Nvidia vel her prøver at indikere...
Chip Online har netop konfirmeret, at NV35 ser ud til at eksistere i ganske velfungerende tilstand og præsenterede disse specifikationer:
NV35 Specifikationer:
GPU: 500 MHz, 130 millioner transistorer og 0,13 mikron (dvs. eneste forskel 5 millioner flere transistorer end NV30)
GPU-køling: Uvist, men ifølge Nvidia langt mere støjsvag end NV30 (jeg kan dog ikke huske/finde referencen, så tag dette udsagn med et gran salt :-)
RAM: 500 MHz 256-bit DDR-ram (32GB/s båndbredde, Radeon 9800 Pro har 21,7 GB/s)
NV35 Ydelse:
Chip Online overværede test af NV35 mod NV30, hvor begge VPU'er benyttede 250 MHz VPU og RAM (dvs. 50% af forventet standardhastighed):
Quake3 Arena, 1600x1200x32 m. 4xFSAA og 8xANI (beta-detonator 42.74):
NV35 = 110 FPS
NV30 = 48 FPS
NV35 ved her 130% hurtigere end NV30, hvilket sandsynligvis skyldes den forøgede rambåndbredde. Kilde til ovenstående information fra Chip Online er:
Anandtech har også indikeret, at NV35 næppe udkommer før maj-juni 2003:
"NVIDIA will not have a chance to respond to the Radeon 9800 Pro for another couple of months, with their NV35 part. NVIDIA has NV35 up and running and it is already significantly better than the lackluster NV30; although we're not sure if it will be able to outperform the Radeon 9800 Pro, at this point we can say that from what we've seen, NVIDIA has regained some of our confidence."
Kilde: http://www.anandtech.com/video/showdoc.html?i=1794
Tiden må dog vise, hvorvidt Nvidia er i stand til virkelig at køle NV35-grafikkort effektivt og uden nævneværdig støj. Problemet med NV30 er nemlig ikke dårlig ydelse, men et støjniveau, som formodentlig ingen kvalitetsbevidste personer kan acceptere. Vi vender tilbage til NV35, når mere interessant information foreligger.
Asger skrev Thursday den 20 March 2003 kl. 12:48: [ svar | nyeste ]
Lyder vildt, men min respekt for nVidias pre-release-info/hype (Chip Online OVERVÆREDE test !!!) er desværre ikke for stor i øjeblikket..
Får mig til at tænke på Saddam H som siger at angriberne går den visse død i møde...
195.97.171.69 skrev Thursday den 20 March 2003 kl. 13:43: [ svar | nyeste ]
Enig - NVIDIA har en forvokset marketingsafdeling.
Lige som Bush administrationen som stadig ikke kan fremvise EET eneste bevis på at Sadaam har været indblandet i 11 Sept.
Man har nok glemt at Sadaam og Bin Laden rent faktisk HADER hinanden for et godt ord... ;o) - smart at Bush at få folk til at hoppe på den (samtidigt viser han at han er lige så utroværdig).
Lars skrev Thursday den 20 March 2003 kl. 13:02: [ svar | nyeste ]
Spændende - men lad os nu se hvad der gemmer sig bag hypen. "Toy story on a chip", får vi jo nok næppe.
Jeg tror nu, at de leget 3dfx...
Voodoo5 5500 kom jo først 8måneder efter det var blevet præcenteret....
Tror nu ik vi kan forvente det før til efter sommer. Men forhåbentligt kan det accelrere ATi op..og få R400 ud af busken lidt hurtigere.. :-)
jeg håber virkelig at nvidia for styr på noget bedre køling, men clock frekvensen er jo ikke blevet lavere end gf fx. bare dette nu ikke er et lige så stort flop som nv30 var. vi har jo brug for konkurrencen for at få priserne ned :-)
forresten, du siger: "Det er næsten uhørt at præsentere demo af NV35 (næste generation), før NV30 (forrige generation) er udkommet"
der er da kommet FX basserede chips på markedet. både asus og terratech (eller hvordan det nu staves) har udgivet henholdsvis normal og ultra version.
Ra skrev Thursday den 20 March 2003 kl. 14:34: [ svar | nyeste ]
Jow, udgivet og leveret til de få der betalte forud, men kan det købes??? Not!
Rune skrev Thursday den 20 March 2003 kl. 14:37: [ svar | nyeste ]
Præcis :-) Ifølge Edbpriser.dk findes der aktuelt ikke en eneste dansk forhandler, som kan levere GeForce FX 5800 (Ultra). Leveringsforsinkelser estimeres fra 3 til 14 dage, hvilket kan betyde, at GeForce FX 5800 (Ultra) først ankommer i april måned - og muligvis detroniseres af NV35 få 1 - 2 måneder senere.
Var det ikke også chip online der fakede nv 30 resultaterne??
Rune skrev Thursday den 20 March 2003 kl. 14:54: [ svar | nyeste ]
Nej, Chip Online er et meget stort, anerkendt og seriøst site; tidligere falske NV30-resultater kom fra Computer-Trend.de. Jeg ser aktuelt ingen grund til at tvivle på resultater fra Chip Online (som i øvrigt bekræfter, ligesom Toms Hardware og Anandtech, at NV35 allerede nu eksisterer), dog med det forbehold, at der her var tale om NV35-prototype (kun sat til 250 MHz); hvordan den færdige "high-end"-version af NV35 vil klare sig, kan ikke nødvendigvis udledes fra prototype-resultater.
hmmm.... det kan godt passe... men en af mine venner er i besiddelse af et terra-tech fx 5800 ultra (og han er IKKE tilfreds)... han må åbenbart ha' betalt forud eller noget.... jeg har set det i action.... DET LARMER!!!!
Rune skrev Thursday den 20 March 2003 kl. 15:30: [ svar | nyeste ]
Naturligvis, endda ca. 55 - 60 dBA, så jf. omskrivning af dansk ordsprog: "Hvis man ikke vil læse, så må man høre" :-) Flere personer, som køber GeForce FX 5800 Ultra uden først at sætte sig ordentlig ind i tingene, risikerer at tabe tusindvis af kroner på et grafikkort, som de hverken kan leve med - eller sælge videre. Og med effektforbrug på hele 75 watt, så hjælper Zalman ZM80A-HP desværre ikke nødstedte GeForce FX 5800 Ultra købere.
0x50c4914e.adsl-fixed.tele.dk skrev Thursday den 20 March 2003 kl. 15:22: [ svar | nyeste ]
Lad os nu se! Tror ikke på noget, før jeg ser det!
men måske, hvem ved om nVIDIA virkelig er tilbage, snart!
Sorry min fejl Rune! Er bare yderst skeptisk over for alt jeg hører fra Nvidia...Blev "snydt" til at vente på 5800 :(
Rune skrev Thursday den 20 March 2003 kl. 15:45: [ svar | nyeste ]
Det gjorde jeg nu også selv, men nuvel, Hercules kunne først levere deres Radeon 9700 Pro sidst i december 2002, så manglende NV30-testresultater forsinkede reelt kun mit indkøb af DX9-komp. high-end grafikkort i ca. 1 måned. Spørgsmålet er naturligvis også, hvornår NV35 reelt ankommer, hvis Nvidia introducerer NV35 i maj. Dog er det muligt, at NV35-fabrikken allerede kører for fuld damp:
"WE HEARD NVIDIA had NV35 up and running at Cebit...A little bird who had discovered the grape at Cebit whispered to us that production of this chip will start ASAP. Nvidia needs a quick solution to outperform the Radeon 9800 Pro that now has the crown that Radeon 9700 PRO stole from Nvidia last summer." (min fremhævning, red.)
Man kan dog frygte, at køleproblemerne med NV30 blot var toppen af isbjerget, allerede nu forbedrer Nvidia os på, at kommende grafikkort kan bruge op til 120 watt (NV30 bruger jo "kun" 75 watt), læs mere her:
(derudover tak for henvisningen til Springdale-resultater, jeg har dog tidligere læst artiklen og afventer resultater fra diverse 3D-spil, da jeg ikke finder syntetiske testresultater tilstrækkeligt interessante)
80.164.24.232 skrev Thursday den 20 March 2003 kl. 15:43: [ svar | nyeste ]
Hvor højt effektbrug kan en Zalman ZM80A-HP egentligt klare op til? Vil den f.eks. også være egnet til fremtidige gfx kort?
Rune skrev Thursday den 20 March 2003 kl. 15:51: [ svar | nyeste ]
Ca. 60 watt, såvidt jeg husker, så du kan overclocke dit Radeon 9700 Pro en smule (Radeon 9700 Pro bruger max. 54 watt i uoverclocket tilstand). Sætter du en blæser på Zalman ZM80A-HP, kan den muligvis klare mere. Dog er NV30 også 0,13 mikron og kræver derfor kobber for tilstrækkelig varmeafledning (0,13 mikron resulterer i større effektafgivelse per cm2 end 0,15 mikron ved samme taktfrekvens; jeg er ikke klar over, hvorvidt Zalman ZM80A-HP selv med kraftig blæser er tilstrækkelig til at håndtere 125 millioner transistorer ved 0,13 mikron og 500 MHz, da varmeafledning mellem VPU og tilstødende køleprofil kan være utilstrækkelig uanset ekstra blæser). Det er således ikke sikkert, at Radeon 9800 Pro kan virke korrekt med Zalman ZM80A-HP, men det må tiden vise...
TP skrev Thursday den 20 March 2003 kl. 18:15: [ svar | nyeste ]
Sært. Hver gang Intel/AMD er kommet med nye processorer baseret på mindre mikron er både varme og forbrug da faldet ved samme MHz?!
Når man laver ledningerne tyndere kan man lægge dem tættere. Og kortere signalveje speeder selvfølgelig processoren op. Derudover giver kortere ledninger mulighed for lavere spænding. Og det betyder mindre varme. Mindre varmeudvikling betyder at man kan clocke højere op, hvilket også giver mere hastighed.
Og normalt betyder den lavere spænding mere for varmen end at der er lidt flere ledninger på samme areal. Det kan selvfølgelig være at nVIDIA bruger samme spænding i begge processorer, men det giver ikke meget mening o_O
Rune skrev Friday den 21 March 2003 kl. 10:57: [ svar | nyeste ]
Det er helt korrekt, derfor skriver jeg udtrykkeligt, at varmeudviklingen per cm2 stiger ved lavere mikrontal (hvilket skyldes, at transistorantal per cm2 stiger mere end varmeudviklingen falder ved mindre fabrikationsproces). Dvs. den totale varmeudvikling i hele chippen falder naturligvis ved mindre fabrikationsproces (samt samme taktfrekvens og transistorantal), men fordi denne formindskede varmeudvikling nu er koncentreret på mindre område, så stiger varmeudvikling per cm2. Derfor gik AMD fra aluminium til kobber mht. cpukøleprofiler, da fabrikationsproces blev ændres fra 0,18 til 0,13 mikron. Så mindre fabrikationsproces er et tve-ægget sværd, dvs. den totale varmeudvikling mindskes, hvorved højere hastigheder samt flere transistorer kan anvendes, men effektafgivelse per cm2 stiger desværre - så sølv afløser vel snart kobber :-)
Jeg synes lige det skal nævnes at jeg her på Hardwaretidedende tidligere har set referencer til kort producenter af GeForce FX, som IKKE benytter sig af nVidia's reference køler, men derimod en variant af Zalman køleren, hvilket jo betyder at kortet så er totalt lydløst (noget som ikke engang ATI kan prale med).
Hvorvidt disse kort overhovedet når at se dagens lys nu hvor NV35 snart kommer ved jeg ikke, men det skal i hvert fald ikke være støjniveauet, som skal bruges som det vigtigste argument imod NV30 kortet (der er jo masser af andre argumenter: pris vs. ydelse set i sammenligning med R300, billedkvalitet sammenlignet med R300 eller effekt forbrug).
Rune skrev Thursday den 20 March 2003 kl. 16:41: [ svar | nyeste ]
Ja, Thermaltake har udviklet lydløs passivkøler til NV30, desværre er NV30 dog mere end ét grafikkort, og til GeForce FX 5800 Ultra ser førnævnte passivkøler kun ud til at virke med påsat blæser (som dog kun er på 28 dBA):
Derimod benytter Sapphire Radeon 9700 Pro ULTIMATE jo ægte Zalman ZM80A-HP, hvorfor kun ATi-baserede high-end grafikkort aktuelt eksisterer i fuldstændigt lydløse versioner (hvor grafikkortproducenten selv har monteret passivkøleren). Så jo, støj er skam stadig det primære kritikpunkt for GeForce FX 5800 Ultra, da aktuelt ingen producent af GeForce FX 5800 Ultra grafikkort leverer køleløsninger, der larmer mindre end 40 dBA (=Gainward, andre løsninger larmer over 50 dBA). Men forhåbentlig er der dog håb forude, her er eksempler på (fremtidige) køleløsninger til Nvidia grafikkort, bl.a. fra Asus:
Ups, jeg havde ikke lige fået fat den lille detalje med Ultra kortene :o)
Selv hvis ATI kort er udelukket, kan jeg under alle omstændigheder ærlig talt ikke se nogen grund til at bruge penge på et NV30, når NV35 kortet tilsyneladende er lige rundt om hjørnet.
Rune skrev Thursday den 20 March 2003 kl. 16:45: [ svar | nyeste ]
Så lykkedes det mig at huske, hvor jeg havde læst, at NV35 skulle have mere støjsvag køler end NV30 (det ser dog blot ud til, at NVNews har læst mere hos Chip Online end jeg er sikker på, at der står, så meget for computerbaserede oversættelser fra tysk til engelsk :-):
CeBit viser at der er andre som laver en FX Flow lignende blæser/køler tingest, til fks. ATI også, peger dog lidt i retningen af at ideen er brugbar, kun materialet og udformningen kan måske forbedres.
Og har man en håndværker i nærheden så er det vel muligt at fjærne noget af pladen og knalde et vand kølehoved på den flade del af kobberet der dækker både VPU og RAM, hvilket er bedre end Zalman Passiv Køleren, da den ikke har kontakt med RAM kredsene og jeg leger alligevel med tanken at "tanke" vand på min Comp. En blæser giver ikke den model så meget hjælp at det tiltrækker mig og nu er R9800 heller ikke helt lydløs, siges der flere steder, men det fylder mindre, hvilket er godt for flowet, NVidias nyere kort stinker meget af Voodoo5, særligt uden køler på, der mangler kun een Chip og 2cm.
Spørgsmålet er om NV30 versionen kommer til dumping priser hurtigt, for at få dem væk og ikke presse NV35 for højt op i pris, eller om NV35 er så meget hurtigere end R9800 Pro, så den er værd at vente på, taget med i beregningen at kortet ikke skal skiftes igen før 2005.
Jeg brød mig ikke meget om at læse at de der Catalyst Drivere ikke er så kompatible igen, så man næsten er tvungen til at skifte Driver hvis man vil spille gamle spil, nye spil eller blære sig med Benchmarks, noget jeg dog ikke er nærvøs for hos NVidia,,,,,det er jo også muligt at man vil lege med Windows XP, Server 2003 og Longhorn, hvilket ikke nødvendigvis er lige let for ATI, da deres Windows XP og 98 problemer har og måske er store nok i forevejen.
Jeg vil gerne selv bestemme hvad jeg vil køre på min PC, det er ikke op til Driverne.
Bare navnet, en Catalysator på en bil, drosler ydelsen, håber ikke ATI har forvækslet noget *GG*
Forstår heller ikke hvor du har det fra Erik. Catalyst driverne afvikler gamle og nye spil ganske udmærket.
Ups skrev Thursday den 20 March 2003 kl. 23:31: [ svar | nyeste ]
Tilslutter mig helt og holdent kritikken af nVidias pr-afdeling - tænk om deres aktuelle grafikkort var bare halvt så gode som deres afdeling for 'hype & paper launch' antyder.
Jeg holder mig til det aktuelt bedste grafikhardware - efter 3 tidligere nVidia GFX-køb, så er tiden inde til at bryde sammen og tilstå: ATI here I come!
Michael skrev Thursday den 20 March 2003 kl. 23:47: [ svar | nyeste ]
Tværtimod har jeg oplevet "sjove" billeder med mit geforce 2 når man skiftede detonator, men aldrig med mit Radeon 9700 pro.
Jeg kan smide over 10 forskellige Detonatorer ind på mit System og spille alle spil jeg har på det, kun test resultater eller udseendet med fks. FSAA er lidt forskelligt og jeg citerede kun andre som HAR et Radeon, sorry troede de var seriøse, da de ytrede deres utilfredshed!
Med hensyn til hvor Winther har set det med Catalyst driverne er det jo et godt eksempel på at han sætter sig mere ind i tingene end visse andre. Nedenstående er taget her fra hardwaretidende: http://www.hardwaretidende.dk/hard/artikel/03/03/19/5100541
"Dog ser det ud til, at Catalyst 3,2 skaber fejl i ældre OpenGL-spil såsom Counterstrike: "...one new issue that has cropped up is with Half-Life engine games and OpenGL. Dropping the console or pressing “Esc” to return to the main menu causes the system to hang, requiring a complete reboot. This also affects the mods such as Counter-Strike (the most popular game online), Team Fortress Classic, Natural Selection, and Day of Defeat (among others)"
Kilde: http://firingsquad.gamers.com/hardware/catalyst_3.2/default.asp
Bemærk endvidere, at det er muligt, at Catalyst 3,1 og 3,2 medfører stærkt formindsket overclockningspotentiale på bl.a. Radeon 9700 Pro grafikkort. Dette emne er endnu ikke fuldt ud belyst, og er baseret på egne erfaringer samt enkelte forumindlæg, hvor Catalyst 3,1 og 3,2 medførte diverse grafikfejl via overclockningsniveau, der virker perfekt med tidligere versioner af Catalyst-drivere.
Jeg må også indrømme at jeg blev meget skuffet over GeForceFX, men jeg tror bestemt ikke nVidia begår den samme fejl igen.
Lad os alle håbe at de får styr på ydelsen og kølingen, så burde alt se godt ud igen :)
Rune skrev Friday den 21 March 2003 kl. 11:15: [ svar | nyeste ]
Mht. flere ovenstående eller tidligere kommentarer, som indeholdt diverse former for personkritik, er disse nu blevet redigerede eller slettede. Ovenstående artikel omhandler NV35, dvs. det bør tilsigtes, at diverse kommentarer omhandler NV35 på et sagligt plan. Retningslinier for diverse kommentarer kan også ses i sektionen "om os", her er et uddrag:
KOMMENTARER OG INDLÆG
I forbindelse med kommentarer og diverse øvrige indlæg bør det tilsigtes, at disse formuleres, så indholdet er umiddelbart forståeligt for andre mennesker, da kommentarer mm. kan blive læst af et stort antal personer. Bemærk endvidere, at urelevante eller upassende kommentarer og indlæg risikerer at blive slettet.
Og diverse former for mudderkastning tilhører kategorien upassende kommentarer (det samme gør talrige svar på denne kommentar, medmindre NV35-relevant information nævnes).
Nu er det jo ganske sjovt at høre hvad Nv har i tankerne med deres nv35, men hvad ved vi om Ati næste kort R400, har vi hørt og set noget til det???
Har hørt at det også skulle komme sisdt på sommer.
Karsten skrev Saturday den 22 March 2003 kl. 17:06: [ svar | nyeste ]
Ikke for at være negativ,men nvidea skal overgå sig selv med det nye NV35 kort for med det vi har set med GFFX 58oo ultra,ikke kun støjen men så sandelig også ydelsen,skal NV35 skulle give ATI 9800 baghjul og til en pris på (3000-3500) og det vil jeg gerne se før jeg tror det,og så har de ydermere temmelig travlt da ATI 9800 er lige på trapperne,og kan ske at hugge deres marked bid for bid.
Nu er det jo ikke på high end markedet man tjener penge. Men har Nvidia planlagt en efterfølger til 5600 som jo ikke ligefrem klarede sig strålende...
Pelle skrev Saturday den 22 March 2003 kl. 22:20: [ svar | nyeste ]
Ved godt at dette omhandler rygter og ikke nødvendigvis den fulde sandhed - men jeg kom til at studse lidt over billedet i artiklen. For mig som grafiker, ser det altså meget ud som om at det er et manipuleret billede. Det ser simpelthen ud som om at Dawn er blevet fritskåret og duplikeret på billedet. Det er vel ikke meningen at hun skal stå ude i luften i præcis samme stilling i alle fire udgaver???
Varg skrev Sunday den 23 March 2003 kl. 12:14: [ svar | nyeste ]
Hvilket kort ville folk på HT anbefale hvis valget står imellem Radeon 9500 pro (Sapphire) og GeForce4 Ti 4800SE (Creative). At 4800 se = 4400 ved jeg, men ydelsesmæssigt svare det vel til 9500 modellen, og da GF kortet er billigst, må det vel også være bedst.. Eller? REGARDS
Mick skrev Sunday den 23 March 2003 kl. 18:02: [ svar | nyeste ]
Helt klart 9500 PRO - det er hurtigere end et 4600 hvis du kører høje opløsninger eller bruger AA. Det er osse DX9-kompatibelt ;o) - selvom det ikke betyder noget på nuvørende tidspunkt.
133% bedre kan passe:
1. Hvis NV30 udelukkende er båndbredde begrænset, vil 256bit hukommelse give 100% mere ydelse.
2. Hvis NV35 kernen er optimeret, kan det sidste måske hives hjem.
Jeg tvivler på begge punkter - på testen i det hele taget.
1. Kan undersøges af en NV30 indehaver, men 2. kan vi desværre kun gisne om.
Jeg tror ikke vi skal vendte længere på NV35 end at NV30, NV31 og NV34 er blevet solgt i et vist omfang. Meget tyder på at NV30 ikke er et færdigudviklet produkt, men noget de har måtte sende på market pga. pres fra investorer og os nørder :) Geforce FX er revolutionerende på tegnebordet, bare ikke i praksis. Men det tror jeg nu NV35 vil rette op på.
Derfor synes jeg egentligt ikke det giver mening at sammenligne FX med den gamle type grafikkort som Geforce 4 og sågar Radeon, fordi FX bringer så meget nyt. Geforce FX svarer lidt til den alfa version af Doom 3 mange har set. Ingen kan køre det ordentligt endnu, hvis man skal udnytte den måde det adskiller sig fra andre spil på. Men vi kan godt begynde at glæde os over, hvad vi har i vente.
Ja, Geforce FX er et dårligt køb, som det er nu pga. støjen. Men hvis vi skal prøve at være bare lidt fremsynet, er der nu meget at glæde sig over. Husk på at Doom 3 er udviklet over Geforce 4 tidens teknologi, hvor Geforce FX spillene vil være en endnu mere overbevisende oplevelse. Den største forskel ligger ikke i hvor mange forud-programmerede detaljer, de forskellige demoer har, men hvor interaktive de er. Med doom3 kan ethvert screenshot næsten ligne et billede man bare havde malet, og det er umådeligt flot. Men med mere direkte programmerbar grafik vil enhver sekvens komme til at ligne et filmklip. Du kan bare selv påvirke det.
Jeg ved godt at Nvidias "Cinematic Computing" lyder som et markedshype. Men hvis i har prøvet at lave figurer til et computerspil, finder i hurtigt ud af hvor besværligt, det kan være at få ting til at udtrykke noget og virke levende. Man har ofte et vist antal animationer man kan udfylde med udtryk, men det vil altid være forudanimeret og en lille smule malplaceret. 'Hvor meget skal personen smile i dette øjeblik?', 'Hvor åbne skal øjnene være?' osv.
Det er teoretisk muligt at gøre med den gamle teknologi, men det er så besværligt at spil sjældent giver nogen mulighed for det. Og hvis, så kun i et meget lille omfang.
Jeg tror alle vi kender følelsen af at slå nummer 217nde af samme monster er lidt mindre skræmmende end det første. Tingene er for stilrene, fordi man ikke rigtigt kan sætte variabler på en prototype, så man får skabt individder. Derfor er der fx også kun 2 slags zombier i starten af doom3, og enten er de fede eller også har de orange tøj på... :)
Hvis man bare vil have lidt flere FPS for pengene, så køb et ATI eller vent et par måneder. Men det er sørgeligt at kritisere Nvidia, for det de gør, fordi de prøver at forberede sig på fremtidens krav. Vores krav.
Hvad er der sørgeligt i at kritisere et firma der åbenlyst holder deres fans for nar med deres PR maskine?? Jeg spørger bare!
Nvidia er da ikke spor mere fremtidsorienteret end ATi. De fleste spil bliver udviklet med DX standarder. Så længe de følges har Nvidia da ingen fordele. For slet ikke at tale om deres nuværende drivere der åbenlyst ikke følger DX9 (hvorfor de endnu ikke er certificerede)for at hive flere FPS ud af kortet.
Jeg er ikke i tvivl om at NV35 bliver meget bedre end NV30, men Nvidia ligger som de har redt hvad angår Nv30.
Mick skrev Tuesday den 25 March 2003 kl. 11:15: [ svar | nyeste ]
Det er nu korrekt at NVIDIA pt. teknologisk er foran. Det er også korrekt at vi ikke har spil som kan udnytte de interessante nye tiltag i NV30.
Men måske en afklapsning er på plads så vi kan slippe for al den varme luft deres marketingsafd. producerer.
Jeg tror grafikkvaliteten vil få mere og mere fokus nu høj opløsning og 32 bit er blevet standard.
Men der skal stadig meget mere båndbredde til inden vi kommer i nærheden af noget som batter.
Først når vi kan køre 2048x1536x32, 128 bit farver, 8xAA samt 64xAF tror jeg at det begynder at ligne noget for alvor.
Blot kunne man jo frygte et sådan monster kræve oceaner af strøm og flydende nitrogen til køling... ;o)
en opløsning på 2048x1536x32,128 bit farver, 8xAA og 64xAF? hehe... Tja, det kunne da være rart, men jeg er bange for at det menneskelige øje slet ikke har brug for så små ting på en 19'' skærm. Og ville du helst spille Quake 1 i den opløsning og de filtre, eller spille Doom 3 i 1024*768?
Jeg tror problemet er, at folk er blevet så vandt til at bedømme grafikkvalitet ud fra still-billeder. Men det vi bevæger os imod er en mere levende oplevelse, hvor alting kommer i bevægelse og bliver manipulerbart.
Lad mig da give et eksempel så... :)
Hvis du står i Counterstrike og stirrer lidt på en mur med vinduer eller sådan noget, finder du hurtigt ud af at tingene bare er kopier af hinanden. Alle vinduerne på muren 100% ens. Også selvom der er fire forskellige typer terrorister, er det ikke sjældent at to af samme type optræder i en omgang. Og de har samme ansigtsudtryk når de kommer snigende bag fjenden med en dolk som når de er i åben ildkamp og bliver gennemhullet af kugler fra et par karabiner.
Som jeg sagde, kunne de i teorien godt lave en hulens masse animationer og terroristtyper man kunne vælge immellem, men det er simpelthen for besværligt. Og man skal også huske at alle teksturer bliver lagt i grafikkorthukommelsen når spillet starter, så det går ikke at man har for mange variationer.
Så det man gør istedet, er at gøre tingene dynamiske, så de kan manipuleres gennem enkle programmeringskoder. Man kan så have en meget højt detaljeret grundmodel, som man så lader grafikkortet tilpasse til det man skal bruge. Og på grund af det nye design kan dette ske meget hurtigt og meget simpelt.
Det, vi kan vendte os, er en meget mere detaljeret oplevelse, og dermed meget mere virklighedstro.
Engang måtte vi køre i så små skærmopløsninger, at vi ikke kunne se detaljerne ordentligt i spil. Nu kører vi i så høje opløsninger, at det er manglen på detaljer, der gør spiloplevelsen lidt flad. Der er for mange kedelige mure og kedelige monstrer, som allesammen tager sig til maven, hvis man skyder dem i benet. Spilproducenterne er ved at tage små skridt for at modvirke dette, men Nvidia har med geFX givet dem en hjælpende hånd af format.
Vi er meget tæt på at kunne lave et tilfredsstillende finkornet og præcist billede, nu mangler vi bare at kunne fylde det ordentligt ud... :)
(hold kæft hvor er jeg da træt... * gaab * ... håber ikke det er for meget vrøvl ;)
Gode kommentare, og jeg giver dig ret i de fleste af dine argumenter.
Der er ingen tvivl om at GeforceFX er et teknologist udemærket product som nok skal blive godt når det har udviklet sig mere og er blevet moden. Det samme skete jo for den originale GeForce 256 chip som på mange punkter var langsommere end andre producter så som Voodoo 3 kortene.
GeForceFX er lidt i samme båd some GeForce 256, det er et revolutionerende product men mangler den modning der skal til for at kunne konkurrere. ATI har jo helt klart været extremt dygtige og heldige med deres R300 chip, som jo faktisk er uden fejl og har næsten de samme features som GeForceFX, så det kan meget let komme til at se meget dårligt ud for GeForceFX kortet. Jeg tror også som en sagde at man har måtte overklokke kortet for at det kunne bare komme nær R300 ydelse og det har ikke været uden bekostning; For høje temperature og derfor et køle system der ikke kan acepteres.
Der er ingen tvivl om at pixel og vertex shaders er fremtiden og som du siger vil gøre det meget letter at danne dynamiske modeller som vi aldrig har set før. Og jo flere program linier, løkker og variabler vi kan bruge i disse shaders vil gøre, at vi nærmer os modeller der kan ændre deres måde at bevæge sig på, eller måden lyset/skygger og andre farve effekter ændre sig, via simple variabler og ikke statiske textures/billeder så vi kender fra nutidige spil som Quake1-3 osv.
En anden ting som de nye grafik kort som Gefoce FX+ og R300+ er jo som sagt en meget mere præcis beregning af farver, hvor de ældre generationer af grafik kort jo kun har 32 bit farve beregninger så har disse dx9 kort op til 128 bit farve beregninger.
Hvad betyder dette for os? Jo som grafik kort beregner farver idag er de sat sammen af 4 farve komponenter 256 røde gradient farver, 256 grønne farver, 256 blå farver og 256 alpha farver. Dette giver 8+8+8+8 bit farver = 32 bit farver.
GeForce FX og R300 har nu muligheden for at beregne med langt større farve dybte, hvilket jo kan give nogle nogle langt mere realistiske farve modeller som vi kender fra den virkelige værden. Det er nu ikke længere nødvendigt at "snyde" sig til disse effekter, men er direkte et led i beregningen af farverne på hver enkelt pixel.
Phew det var dog en lang smøre, nå men det jeg egentlig ville sige er at GeForceFX er et produkt som helt klart har sine problemer, men som tiden går, nok skal modne og blive til et godt produkt. For tiden har ATI den gyldne krone, fordi de har lavet et fantastisk produkt som har næsten alle de ting som GeForceFX har, samt at det jo ikke larmer, og er hurtigere.
Det er godt for os forbrugere at ATI er kommet så langt, og vil helt klart blive ved med at være med i kampen om FPS. NVidia blev taget med bukserne nede, og har ikke rigtig formået at komme med de udspil som var forventet.
ok, nu skal jeg nok tie stille :-)
(det skal siges at jeg staver som en spade da jeg til dagligt ikke skriver eller taler mit modersmål sprog, jeg håber i kan tilgive mig)
Mick skrev Friday den 09 May 2003 kl. 11:13: [ svar | nyeste ]
Tja.. nu har jeg en 22" skærm og det gør alt under 1600x1200 til en prikket fornøjelse. Men skærmen er da fremtidssikret lidt endnu... LOL!
Jeg er også meget træt af det flimmer ("pixel interferens"?) du ser i baggrunden hvis du ikke bruger AA+AF (se fx. træernes blade i 3DMark03 nature scene). Selv med 4xAA i 1600x1200 kan du stadig se det - og det finder jeg altså drønirriterende at se på. Derfor glæder jeg mig usigeligt til 2048x1536 med 64xAF og 6xAA bliver mere udbredt (der går vel 4-5 år).
Jeg er mindre interesseret i arcade blokpixels end i realistiske billeder - jeg har set output på TV og det er til at grine af i forhold til 1600x1200 (og så er alt under 80 fps uanvendeligt). Men hver sin smag jo.
Jeg venter selv spændt på NV35 - har pt. et R300 kort og regner ikke umiddelbart med at skifte. Og så tror jeg faktisk mere på R400 pt.
Men hvis NV35 har 256 Mbit bus lover det nu godt mht. til AA og AF - båndbredde kan vi bestemt aldrig få nok af ... ;o)
Rune skrev Wednesday den 26 March 2003 kl. 14:21: [ svar | nyeste ]
Det ser ud til, at Nvidia har startet større samarbejde med IBM, hvorfor IBM måske allerede sommer 2003 påbegynder NV35-produktion, læs mere her:
Ja, indtil videre ser det fint ud med NV35, men vi ved endnu alt for lidt til at kunne vurdere, om det bliver et godt produkt. Men hvis vi ser lidt tilbage på nVidias udviklingsmetoder, tyder det på at tingene går som planlagt. Eksperimentering og ekspandering, og derefter finpudsning og effektivisering.
Rune skrev Friday den 28 March 2003 kl. 12:47: [ svar | nyeste ]
The Inquirer har netop publiceret "hemmelig" information om NV35, her er fløden (jeg har indsat et par bemærkninger):
0 It's already up and running in Nvidia's labs! (det vidste vi vel godt allerede)
1 It wil use DDR - not DDR2 (!) memory because of the lower price of memory and PCB, more stability and availability in high volumes (det er vist ej heller nyt)
2 It will have 256 bit 400 MHz (may be more for ultra) DDR1 memory interface. And there will be cards with 256 MB of memory, m'boys (taktfrekvens muligvis ny, Ultra burde have 500 MHz)
3 It will have the same features set and probably near as damnit the same core clock. (også læst før)
4 It will be as twice, and and sometimes a bit more than that, faster in raw shader power for 1.4 and 2.0 pixel shaders whereas the NV30 was not such a strong performer as we wished - so this aspect is pretty tuned up, lads! (Aha, interessant - dvs. hvis det passer :-)
5 It shows from 1.5 up to 2.0 thimes performance of NV30 depending on the tasks and the final frequency specs. (lad os nu lige føle efter nagelmærkerne, før vi tror på noget :-)
6. It will be definitely faster than RADEON 9800 PRO (næppe usandsynligt)
7. Other side specs like RAMDAC freq are the same as for NV30
Rune skrev Thursday den 03 April 2003 kl. 12:38: [ svar | nyeste ]
Ifølge XBitLabs vil Nvidia officielt introducere NV35 om ca. 1 måned. Og så massefabrikation af NV35 vil starte i maj, hvorefter NV35 skulle kunne købes verden over i juni. Så må vi se, om det kommer til at passe, læs mere her:
Rune skrev Tuesday den 15 April 2003 kl. 20:33: [ svar | nyeste ]
Ifølge NVNews er dette MULIGVIS den fulde specifikationsliste for NV35:
CineFX ( TM ) Shading Architecture
Support for the Microsoft DirectX® 9.0 Pixel Shader 2.0
Support for the DirectX 9.0 Vertex Shader 2.0
Long pixel programs up to 1,024 instructions
Long vertex programs up to 256 static instructions with up to 65,536 instructions executed
Dynamic, conditional execution and flow control
256-bit advanced memory interface combines a wider memory data path with next generation controller technology for superior performance and throughput.
Full 128-bit, studio-quality floating point precision through the entire rendering pipeline with native hardware support for 32 bpp, 64 bpp and 128 bpp rendering modes
Accelerated pixel shaders allow for up to 12 pixel shader operations/clock
Up to 16 textures per rendering pass
Support for sRGB texture format for gamma textures
IntellisampleTM performance technology, a Hi-Res compression technology (HCT), increases performance at higher resolutions through advances in compression and anti-aliasing technology.
Shadow Volume Accelerator – accelerates shadow volumes by maintaining them more accurately and discarding useless information.
Full nViewTM multi-display technology capability
Integrated NTSC/PAL TV encoder supporting resolutions up to 1024x768 without the need for panning with built-in Macrovision copy protection
Microsoft® Video Mixing Renderer (VMR) creates support for multiple video windows with full video quality and features in each window
DVD and HDTV-ready MPEG-2 decoding up to 1920 × 1080i resolutions
Dual, integrated 400 MHz RAMDACs for display resolutions up to and including 2048 × 1536 @ 85 Hz
Dual DVO ports for interfacing to external TMDS transmitters and external TV encoders
Dual internal TMDS encoders (one single and one Dual link) able to drive next-generation flat panel displays with resolutions greater than 1600 × 1200
Digital Vibrance Control 3.0
0.13 micron process technology for higher levels of integration and higher operating clock speeds
40 mm × 40 mm, BGA 1309 flip-chip package
Comprehensive Microsoft DirectX® 9.0 (and lower) and OpenGL 1.4 (and earlier) support
DirectX and S3TC texture compression
Belært af erfaringer gælder dog, at diverse fantastiske specifikationer intet er værd, såfremt ydelsen ikke er tilsvarende (især Matrox Parhelia-512 illustrerede dette perfekt, NV30 også i nogen grad). Derudover gælder naturligvis, at al kølerlarm over 30 dBA vil give (alvorlige) anmærkninger i karakterbogen...
Så sidder man her igen, og læser så man bliver helt skeløjet, men hvis kortet offenliggøres på messen midt i maj, hvad er så et realistisk bud fra en fagmand som dig, på at det ligger i butikkerne og hvor meget guld skal der op af lommen, for billigt bliver det jo nok ikke.
Ole
Rune skrev Wednesday den 23 April 2003 kl. 22:56: [ svar | nyeste ]
Hvis diverse formodninger kommer til at passe, så vil jeg gætte på, at NV35 ankommer juli-august 2003 til en pris af kr. 4.000,00 - 5.000,00. Prisen vil dog nok være relateret til, hvor hurtigt NV35 bliver ifht. Radeon 9800 Pro, og hvorvidt der anvendes 256MB ram.
ifølge digitimes bliver NV35 introduceret til E3, der bliver afholdt mellem 14.-16. maj ... så vi skal nok ikke vente så forfærdeligt længe på at se resultater. Det ser også ud til, at Nvidia satser på at NV35 erstatter NV30 hurtigt, så det tyder på, at vi ikke skal vente helt så længe denne gang...
skod for folk, der har investeret i et NV30, men for resten af os, kan det gå hen og blive det hele værd at købe Nvidia igen... håber jeg da... :)
Rune skrev Friday den 25 April 2003 kl. 22:33: [ svar | nyeste ]
Rune skrev Sunday den 27 April 2003 kl. 20:14: [ svar | nyeste ]
Mere nyt om NV35:
"...the NV35 will use 2.2 ns memory available from Hynix and Samsung capable of running at just above 900 MHz. For NV35 Ultra this will be the frequency as the card will be clocked at 450 MHz for the GPU and 900 MHz for memory [28,7 GB/s båndbredde, red.]... There will be two versions of NV35, Ultra and non Ultra obviously. The launch date is Los Angeles E3 between 12th and 15th of May and production time is sometime in June but this could easily mean late than early June, although more than a few Nvidia partners are quite optimistic about June. As for non-Ultra boards, the clock speed will be 425/850MHz and we know that these boards are in R&D shops for two weeks now. The possible name, that we still cannot confirm is Geforce FX 6800 Ultra and non Ultra."
Rune skrev Wednesday den 30 April 2003 kl. 11:06: [ svar | nyeste ]
The Inquirer har endnu en artikel om NV35, her er et uddrag:
"A memory controller and support for DDR 1 at 450 MHz will give Nvidia 28.8 GB/sec real bandwidth while NV30 had only 16 GB/s, making this new card almost twice as fast if you're counting memory bandwidth. The pipeline number will remain four while the NV35 will use two texture memory units (TMUs) that will give eight textures per clock but just if multi texturing is used."
Rune skrev Friday den 09 May 2003 kl. 00:42: [ svar | nyeste ]
Det ser ud til, at NV35 vil benytte støjsvag køling og hedde GeForce FX 5900 (Ultra). Forskellen på GeForce FX 5900 og GeForce FX 5900 Ultra skulle blot være mængden af ram, hvor Ultra benytter 256MB (non-ultra 128MB), men taktfrekvenser for begge kort skulle blive 450 MHz VPU og 425 MHz 256-bit DDR-ram (svarende til 1700 MHz ram og 27,2 GB/s). Læs mere her:
Rune skrev Friday den 09 May 2003 kl. 01:46: [ svar | nyeste ]
Nu er NV35 vist meget tæt på, her er nyheden direkte fra Reuters:
"Chief Executive Jen-Hsun Huang said the company will launch its new graphics chip, code-named "NV35," next week. It will replace the company's prior top-end product, code-named NV30, which Huang said was unsuccessful."
GeForce FX 5900 Ultra: NVIDIA NV35 GPU clocked at 450MHz and 256MB of DDR SDRAM clocked at 850MHz and utilizing 256-bit bus. All graphics cards will be equipped with DVI-I, D-Sub and VIVO connectors. The ESP for the part is 499 Euros or Dollars, expected time of availability if June.
GeForce FX 5900: NVIDIA NV35 GPU and 128MB of DDR SDRAM utilizing 256-bit bus. Lower GPU and memory frequencies. All graphics cards will be equipped with DVI-I, D-Sub and TV-Out connectors. The ESP for the part is 399 Euros or Dollars, expected time of availability if June.
GeForce FX 5900 Value: NVIDIA NV35 GPU and 128MB of DDR SDRAM utilizing 256-bit bus. Lower GPU and memory clocks. All graphics cards will be equipped with DVI-I, D-Sub and TV-Out connectors. The ESP for the part is 299 Euros or Dollars, expected time of availability if June.
For at fryde mig lidt over, at jeg og andre til sidst havde mere eller mindre ret (jf. kommentarer oven over startende fra mandag den 24 marts 2003 kl. 12:57), vil jeg lige bringe denne artikkel frem igen med billeder renderet med det nye NV35:
Læg mærke til billederne. Se det er hvad jeg kalder kvalitetspixels :)
Grosen skrev Sunday den 25 May 2003 kl. 11:57: [ svar | nyeste ]
Tilsyneladende har Nvidia måske også fusket med driverne til GeForceFX 5900 Ultra. Har før været meget snak om at Nvidia har snydt med driverne så de giver alt for høje benchmarks i 3DMark03 og nu har Futuremark endeligt lavet en pressemeddelelse der dokumenterer dette udsagn: http://www.futuremark.com/companyinfo/3dmark03_audit_report.pdf Ifølge denne pressemeddelelse så har selv FX5900 Ultra givet resultater som er godt 30% bedre end de burde have været bl.a. på grund af deaktivering af forskellige funktioner, brug af alternative pixel shadere som giver flere fps men dårligere billedkvalitet osv. ATI har dog også fusket lidt med deres drivere men slet ikke i samme omfang. Dette giver os dog kun endnu en grund til at se bort fra test fra Futuremark fordi når begge firmaer prøver at manipulere resulaterne så kan vi ikke stole på nogen af dem og må i stedet for nøjes med de reelle performance tests som bliver lavet i eksisterende spil.
0x50a14235.hrnxx3.adsl-dhcp.tele.dk skrev Sunday den 25 May 2003 kl. 12:36: [ svar | nyeste ]
grosen.
som der står i artiklen
Any cheats potentially included in drivers are much easier to hide in game benchmarks.
Game benchmarks are not immune to cheating either. Just like drivers can
identify when 3DMark03 is running, same drivers also can identify when a popular game’s
benchmark is running. The driver can even detect when the benchmark tool of the game is
running to enable the cheats; the cheats are then disabled when the actual game is played.
Game benchmark cheats are much more difficult to expose. Even with the presence of clues,
such as reduced image quality or missing features, it is next to impossible to prove what is going
on without the source code and game developers’ active cooperation. The major problem with this
is following: There are few if any game developers that want to reveal their intellectual property to
third parties so that independent groups would be able to prove the cheats.
0x50a14235.hrnxx3.adsl-dhcp.tele.dk skrev Sunday den 25 May 2003 kl. 12:37: [ svar | nyeste ]
Ergo er "Reele" performance tests som bliver lavet i eksisterende spil lige så lidt værd som 3dmark scoren
Grosen skrev Sunday den 25 May 2003 kl. 16:52: [ svar | nyeste ]
Fuldstændigt korrekt - fik formuleret det lidt forkert. Det der var ment med kommentaren var en kritik af Nvidia og ATI samt at 3Dmark03 ikke kan bruges til noget sådan som landet ligger. Det eneste formål med 3Dmark03 er at benchmarke div. gfx-kort, cpu mm. indenfor ny 3D-teknologi men eftersom både Nvidia og ATI fusker med deres drivere så er testen ubrugelig. Det eneste man kan bruge den til er hvis man selv prøver at lege med div. indstillinger for at presse computeren lidt mere hvorved man så kan sammenligne før og efter resultaterne. Direkte sammenligning af gfx-kort kan ikke lade sig gøre med denne test. At driverne så også kan tilpasses så de snyder med spilydelse er selvfølgelig endnu et problem men under alle omstændigheder er der ikke noget formål med at bruge Futuremark's test til sammenligning af forskellige mærker.
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.