af Webmaster Tuesday den 05 November 2002 kl. 18:35 [ Grafikkort ] Nvidia har for få dage siden af holdt "Nvidia Mania Day" i Seoul, Korea. I denne forbindelse viste chefingeniør David Kirk et par lysbilleder, som indeholdt lidt information om Nvidias næste generation af grafikkort, nemlig "NV30" (GeForce4 Ti er generation "NV25"). Vi har i denne korte artikel udvalgt, og kigget nærmere på, lidt af propaganda-materialet.
Vi har tidligere forfattet følgende artikler om NV30, hvis enkelte skulle være interesserede:
Dette første billede er i virkeligheden relativt uinteressant. Det er tydeligt, at Nvidia her prøver at beskrive NV30 på en måde, som ikke løfter hele sløret (først når NV30 introduceres officielt til Comdex den 18. november 2002, kan vi forvente samtlige specifikationer). At NV30 er mere end 2 x GeForce4 siger intet. GeForce4 ankommer jo både i MX og Ti varianter - og om NV30 er mere end 2x GeForce4 Ti 4600 eller GeForce4 MX 420, kan vi kun gisne om... Lidt interessant er dog den fuldstændige support af kommatalsberegninger, som formodentlig vil gøre NV30 i stand til særligt avancerede matematiske beregninger (læs geometri/polygoner, transformationer osv.). Endvidere er det muligt, at NV30 understøtter 64-bit og 128-bit farver, hvilket også antydes på ovenstående billede. At Nvidia virkelig mener, at NV30 kan medføre filmagtige billeder, viser dette billede:
Ifølge Nvidia vil NV30 medføre mulighed for særligt livagtige billeder. Endvidere skulle NV30 være i stand til at rendere filmen "Final Fantasy" i realtime:
Da GeForce3 blev udgivet i forår 2001 blev dette grafikkort dog også beskrevet ved at være "Toy Story On Chip" og ved at kunne rendere Doom3 uden store problemer mm. Sandheden er dog nok, at GeForce3 var og er et glimrende produkt, men vil ikke være optimalt til Doom3. Så der er næppe nogen som helst grund til at tro på diverse beskrivelser om, at NV30 vil medføre spil, der i grafisk kvalitet svarer til Final Fantasy og Shrek (hvilket er, hvad Nvidia naturligvis [mellem linierne, red.] søger at overbevise om, når de sammenkæder visse film med deres grafikkort - og selv Doom3 er langt fra på niveau med Final Fantasy og Shrek). Næste billede er mere humoristisk anlagt:
Atter er der ikke meget at komme efter, det eneste, som vi kan bruge til noget er, at pixel shaderen i sig selv kan foretage 51 milliarder beregninger per sekund. Næste billede er ikke meget bedre:
Her ses, at NV30 består af 125 millioner transistorer, hvilket er eneste interessante information. Sammenlagt kan således konstateres om NV30:
NV30:
125 millioner 0,13 mikron transistorer (Radeon 9700 Pro har 110 millioner og 0,15 mikron)
pixel shaderen kan foretage 51 milliarder beregninger per sekund
formodentlig understøttelse af 64-bit og 128-bit farver
Understøttelse af "procedural (animated) textures", "anisotropic lighting", "non-photorealistic rendering (npr)" og "Skin shader" og meget mere
Muligvis anvender NV30 128MB 128-bit DDR-II ram fra Samsung (1000 Mhz taktfrekvens)
Hvad ord som "procedural animated textures" mm. dækker over, kan interesserede se her:
195.82.209.198 skrev Tuesday den 05 November 2002 kl. 18:46: [ svar | nyeste ]
UHA!!! PAS PÅ RADEON (ejer selv PRo 9700).
Ej, det er naturligvis propaganda - tror ikke, at dette kort bliver Guds bedste opfindelse!
h0VnR skrev Tuesday den 05 November 2002 kl. 19:01: [ svar | nyeste ]
Forsatan et sygt kort...jeg håber virkelig deres facts passer, de plejer jo ofte at love mere end de holde =D det er jo også lige før grafikkortet kan tænke for resten af computeren (-:p
MyrKnof skrev Tuesday den 05 November 2002 kl. 19:07: [ svar | nyeste ]
det er jo syyyyyygt at et kort kan være så godt, og hmm RADEON gå hjem og vug....hehe
Det er i mine øjne helt urealistisk at forestille sig en sølle grafikprocessor kan rendere i samme kvalitet som filmen Final Fantasy.
Ren propaganda!
Final Fantasy blev renderet på en serverfarm med mere end 400 processorer.
Jeg vil se nogle rå facts før jeg spiser "elefanten" men står gerne i kø for at købe kortet når det engang dukker op.
Ingen tvivl om at ATI har rykket ved Nvidia's status som konge, men mon ikke ATI også har nogle kort gemt i ærmerne i nær fremtid?
SF skrev Thursday den 07 November 2002 kl. 22:29: [ svar | nyeste ]
hehe...du har ret mht. at man skulle tro at det var urealistisk at et kort kan erstatte en "rendering farm" der jo typisk er opbygget af omkring 400 64bit processorer til en værdi af et par millioner, og ikke engang renderer i realtime, men noget der ligner 1 minut film per time eller mere. Men der er noget om snakken, det har i høj grad noget at gøre med den måde et grafikkort beregner f.eks. skygger på. Jeg ved ikke ekstremt meget om det, men der findes masser artikler om det.
Men bare for at komme med et "dagligdags" eksempel, så prøv at gå tilbage til et gammelt 1mbyte grafikkort og prøv at spil de nyeste spil med ren processorkraft. Jeg garanterer at du får brug for omkring 3 gange så meget cpu for at kunne render spil som f.eks. UT2003 i samme kvalitet som med et moderne grafikkort.
TEXNON -> Forklar hvorfor. Jeg siger ikke, at det ikke gør. Jeg er bare skuffet over den højestsandsynelige 128 bit bus. Om så den kører 1000 DDRII gir' den en båndbredde på ca. 16 GB... det er ca. 4 GB mindre end Radeon 9700 PRO's.
Jeg håber også for dem, at de mener Geforce Ti4600. For Radeon 9700 PRO er, så vidt jeg ved, > 2x så hurtig som Ti4600 i Doom 3 alphaen uden AA eller AF (selvom dette er meget interessant, skal man huske på, at det kun er en alpha).
Jeg forventer, og tror også, at NV30 bliver hurtigere end R9700 PRO... ellers har de godtnok kludret i den. Men jeg tror slet ikke på, at der bliver ligeså stor en forskel fra R300-NV30, som der er fra NV20-R300, selvom der er ca. lige mange mdr. imellem dem.
Nu håber jeg ikke, at jeg lyder som en fanboy, når jeg siger dette:
Vent til R350. Når den kommer, kan I bestemme jer. Chancen for at den slår NV30 er MEGET stor.
Og så vidt jeg ved, så kommer den allerede til foråret. Så det drejer sig nok kun om 3 mdr.
Jeg har selv R9700 PRO, og jeg er ovenud tilfreds med det. Driverne er bare, som de skal være, så lad være med, at la' det komme i vejen for et evt. ATi køb.
...det var lige hvad jeg havde og sige :)
F3D3 skrev Tuesday den 05 November 2002 kl. 22:16: [ svar | nyeste ]
Den eneste kommentar jeg har (fatter ikke ret meget af de andre facts :)
de glemte bare at sige at det er i opløsningen 2x3 pixels *LOL*
Rune skrev Wednesday den 06 November 2002 kl. 12:18: [ svar | nyeste ]
Nvidia har tidligere vist, at GeForce3 kunne klare en reduceret version af Final Fantasy i ca. 15 FPS, men GeForce4 Ti (4600) kunne klare samme version i ca. 24 FPS og den fulde version i ca. 15 FPS. Her er et eksempel:
"Nvidia insisted to us several times that their George 4 can render Final Fantasy: The Spirit Within movie in real time and deliver 24 FPS but we sincerely doubted until we saw it with our own bare eyes. I was able to finally see that demo running on an Athlon 2100+ with 256Mb of system Ram even though its recommended to have at least 512Mb and of course we used Nvidia George 4 TI 4600. Since we like to try different things we tried the same demo on a Gainward George 4 TI 4200 power pack and we were amazed. Both cards where able to run the demo in real time. We saw some synchronization problems from time to time but rendering was completely astonishing."
Nu skal man dog huske på, at dette blot er "tom" rendering (som iøvrigt næppe foregår i mere end alm. DVD-opløsning, ca. 720x480 - dog kun et gæt fra min side), dvs. PC'en skal ikke håndtere avanceret lyd, kunstig intelligens osv. Det samme gælder "Nature-testen" i 3DMark 2001 - og det er næppe uden grund, at vi ingen spil har set, der når samme fantastiske grafiske niveau.
TP skrev Thursday den 07 November 2002 kl. 13:53: [ svar | nyeste ]
Jeg vil også have en GEORGE 4 hehe.
Men ellers har du ret. NVIDIA har ved flere lejligheder vist at FF kan køre på GeForce 3/4, omend ikke med fuld hastighed. Hvis man så forestillede sig noget der var bare knapt så pænt, og så en god Pentium 4 til at trække noget seriøst AI og hvad der ellers skal til... Jeg tænker på de billeder vi har set fra Doom3, hvor der godt nok blev brugt nogle meget imponerende textures, men figurerne var dog noget kantede. Hvis det ikke kommer til at køre perfekt på sådan en maskine, så tror jeg NVIDIA skulle give Super John fra ID et lille opfrisker programmerings-kursus.
sad og så gforce 3 præsenta. fra mac messen, for nogle dage siden.
Og den virkede vist også lidt overdrevet, så det skal vist tages med et gran salt ;)
Rune skrev Tuesday den 05 November 2002 kl. 22:46: [ svar | nyeste ]
Skulle enkelte savne et par kommentarer, så skyldes dette, at jeg har slettet en særligt fjollet kommentar, hvor det blev påstået, at NV30 ankom med 1 GB ram. Der må være grænser for, hvor tåbelige kommentarer, som vi vil finde os i - også selv om flere af vore læsere muligvis ikke befinder sig på toppen af den aldersmæssige rangstige.
Lad os nu vente 2 uger, så vi kan se hvad NV30 virkelig kan, håber dog for nVidia's skyld at det er noget hurtigere end R300 (hvilket jeg er overbevist om det er) ellers får de nok lidt svært ved at sælge det...
Da GeForce4 Ti 4600 er taget ud af produktion og det tyder på at Ti 4200 vil være her på længere sigt, så kunne det tænkes at NV30 kommer til at lande på et prisleje mellem 32-3700kr, hvis vi nu kigger på "hvem har hvad" afstemingen, så ser jeg ikke at der er grund til at tro at de ca 34% Ti 4600 ejere, ville sige nej hvis bare 15% mere ydelse og en helt anden grafik håndtering som ikke kræver 2,5-3GHz CPU samtidig for at kunne klare hvad der kommer de næste års tid.
Da Ti 4600 ASUS landede, fløj de over disken, dengang til over 4100kr, ser vi på alle de hoveder der siger at de både har rimelig stor Comp, PS2, XBox samt lækkert Widescreen TV med Surround, er jeg sikker på at det ikke bliver prisen på NV30 der bestemmer salget.
Forresten, hvis jeg husker rigtigt, så er der vidst en afstemning ca et årstid siden med samme udfald, ca 10-15% har ATI, over 70% har NVidia, al diskussion om priser og ydelse har ikke ændret meget ved det resultat, spøjst nu at 33% har den dyre NVidia udgave, så næsten hver anden NVidia tilhenger er åbenbart kold overfor prisen, det vi alle har det værst med, ER AT VENTE!
Jeg tror, at vi kommer til at se en lancering ala geforce4. Først kommer de store modeller i et par måneder, dernæst et billigt NV30 med dårligere ram, og gpu ved lavere frekvens. Geforce4 ti4200 vil dække markedssegmentet for OEM- og budget-brugerne de næste 4-5 måneder, hvorefter et nedgraderet NV30 vil tage over.
Grunden til at produktionen af Geforce4 ti4600 er stoppet, skyldes at NV30 om en måneds tid begynder at overtage markedssegmentet for entusiast-brugerne. Prisen bliver 4500 kroner for den hurtigste NV30'er, og og 3500 kroner for en lidt langsommere NV30'er hvis jeg skal gætte på en pris. Vi får at se, men hvis NV30 er så revolutionerende som nVidia gerne vil have os til at tro, kan de tillade sig at tage høje priser.
Rune skrev Wednesday den 06 November 2002 kl. 11:31: [ svar | nyeste ]
Det er nu alligevel langt fra sikkert, at XBitLabs har ret i, at "Ti 4600" helt forsvinder. I følge nyeste artikel hos Anandtech gælder:
"For a while NVIDIA had been planning releasing a GeForce4 Ti 4600-8X similar to the Ti 4200-8X that I just mentioned. However, just very recently the Ti 4600-8X has been scrapped (or should I say renamed) and now roadmaps show two new GeForce4s to debut before the end of the year. For starters we have the GeForce 4 Ti 4800, but don't let the name excite you - the card is nothing more than a GeForce4 Ti 4600 with AGP 8X support. Even more disappointing is that there's talk of a GeForce4 Ti 4800-SE that runs at the same clock speed as the current-gen Ti 4400 but with AGP 8X support."
Så Ti 4600 ser blot ud til at skifte navn, ydelsen vil næppe være ændret pga. AGP8x. Derudover kan vi jo gætte på, at NV30 (MX) grafikkort i sidste kvartal af 2003 koster kr. 1.500,00 - 2.000,00 (jf. GeForce3-udviklingen i 2001).
Ikke helt enig. Radeon 9700 (PRO) vil på det tidspunkt være nede i 2000-3000 kr... og jeg tvivler meget stærkt på, at NV30 er 2x så hurtig som et Radeon 9700 NONPRO.
Desuden skal de helst have så meget som muligt af det potentielle marked, da de ellers risikere at miste det til ATi, når ATi kommer med R350.
Derfor tror jeg nVidia står i en lidt skidt position. Det har sikkert kostet masser af penge at designe NV30, og oveni det skal de også dække produktionsomkostninger. Så derfor skal deres pris være forholdsvis høj, før det kan tjene sig.
Dette er et stort problem, da vi jo alle ved at ATi snart har et DDRII kort klar. Og måske endda en modificeret R300, betegnet R350, som nok godt kan alt det, som NV30 kan.
Om ikke andet, så er det rigtig godt for os på konsument markedet... Vi går en rigtig spændende tid i møde!
hvorfor er det tåbeligt at sige at der kommer 1gb ram på grafikkort om jeg må spørge det svare jo til at man for 10 år siden sage at man aldrig ville have brug for 100 gb plads på sin hdd som privat person da de største hdd var på 500 mb
sådan en gang sludder og vrøvl kan sagens forestille mig grafikkort med 1gb ram
Det er tåbeligt at påstå, at NV30 er udstyret med 1 GB ram. For det første vil det være afsindigt dyrt; over 5000 kroner for rammene alene alt efter kvalitet og taktfrekvens. For det andet er der slet ikke brug for 1 GB på et grafikkort til desktop pc'er, faktisk kan forskellen mellem 64 MB og 128 MB være svær at få øje på.
Christian R Poulswen skrev: "Radeon 9700 (PRO) vil på det tidspunkt være nede i 2000-3000 kr"
Det tror jeg næppe. Måske kommer det ned i 2800-2900 kroner om et par måneder når NV30 er (forhåbentligt) tilgængeligt i store mængder på markedet.
Mht. ydelsen, så tror jeg faktisk at NV30 bliver en del hurtigere end Radeon 9700 PRO. Radeon 9700 PRO er 30-40 % hurtigere end ti4600 uden FSAA og Anisotropisk filtrering. Hvis nVidia mener at NV30 er dobbelt så hurtigt som NV25, så vil NV30 være en del hurtigere end Radeon 9700 PRO.
Jeg har ikke hørt om et r350 i den kommende fremtid, og heller ikke noget om DDRII på r300, men har du et link så jeg kan blive klogere vil det være rart!
BTW: Er det med vilje med det w i dit efternavn?
GWiZ skrev Wednesday den 06 November 2002 kl. 02:13: [ svar | nyeste ]
@knolden er varm og jer andre...
Lad det ligge!! Det er off-topic!
Anyway, jeg har hørt at nVidia mener at NV30 skulle være 2x GF4 UDEN FSAA eller anisotropic filter. Hvis det passer må det være meget hurtigt, da R9700 kun er så meget hurtigere hvis alle disse features er slået til. Hvis nVidia så ellers holder deres løfte og giver "lossless" FSAA så kan man pludselig se fordelen i den. :-)
Det kan godt være det er mig der husker forkert, men påstod nVidia ikke at de renderede en nedjusteret version af Final Fantasy med GF3 (eller GF4)?
Kunne det ikke være at nVidia udsender NV30 med 256mb ram for at være foran? eller er det totalt urealistisk?
hhmmm jeg er sku spændt på de 16 skærme de også nævner i artiklen.... Snakker vi om en udvidet Matrox 3d view??? det kunne være stort hvis det kan bare 3 skærme som Matrox kort :-)
Så er der ingen tvivl så skal jeg ha det kort!!!!
Nogen der ved hvad kortet kommer til at hedde? Så vidt man kan læse rundt omkring bliver det formentlig ikke Geforce5, da kernellen og arkitekturen er (delvis) skiftet ud...
Rune skrev Wednesday den 06 November 2002 kl. 11:41: [ svar | nyeste ]
Måske et eller andet med "FX". Reverend fra VE3D og et par normalt seriøse personer fra Beyond3D gættede på "GeForce5 FX" eller "GeForceFX" - men de ved ikke nødvendigvis meget mere end alle andre, og CineFX indbyder jo til, at bogstaverne "FX" indgår i navnet. Det vil dog undre mig, hvis NV30-navnet indeholder "GeForce"-navnet, men intet er naturligvis givet med sikkerhed, før Nvidia løfter sløret...
Jan Tams skrev Wednesday den 06 November 2002 kl. 10:46: [ svar | nyeste ]
Ja...ja...
GF4 ti4600 er jo ik gået ud af produktion!!
Det har bare fået et nyt navn!!
GF4 ti4800...hvor 800 står for 8xAGP eller NV28
Og GF4 ti4400 er blevet til GF4 ti4800se en 4400 med AGP 8x.
ATi har selv nævnt at de har noget i ærmet når NV30 udkommer. hvilket nok er R350 og RV280(Radeon9100)
ATi skal nok holde sig, ihvertfald med noget billigere priser, hvis NV30 kommer til at koste ca. 4000kr, hvilket det højst sandsynligt kommer til at gøre!!
Martin skrev Wednesday den 06 November 2002 kl. 10:54: [ svar | nyeste ]
Jeg er ikke sikker på navnet, men jeg tror ikke jeg skal have det. Jeg klarer mig OK med mit g4 ti 4200. Jeg kan køre f.eks. wolfenstein med al tex. slået på 1024*768*32 og det er jeg godt tilfreds med. Desuden tror jeg ikke der er mange SOM HAR BRUG FOR det nye nv30.
Det er sikkert bare blær, hvis du ved hvad jeg mener... :o)
Rune skrev Wednesday den 06 November 2002 kl. 12:04: [ svar | nyeste ]
Dette er bestemt en vigtig betragtning, benytter du ikke f.eks. 1600x1200-opløsning og er du ligeglad med FSAA og anisotropisk filtrering mm., så vil mange personer ikke nødvendigvis få meget ud af aktuelle high-end samt kommende grafikkort. Tager man ikke egne behov i betragtning før køb, kan man nemt begå fejltagelser. En vigtig huskeregel kan være, at får NV30 virkelig, hvad der svarer til 48 GB/s effektiv båndbredde (via diverse smarte algoritmer mm.), så burde NV30 kunne levere ca. lige så mange billeder i 1600x1200x32, som GeForce3 Ti 500 kan levere i 640x480x32 (der er ca. en faktor 6 til forskel både mht. opløsning og båndbredde - hertil kræves dog også, at NV30 VPU'en har 6-7x fillrate af GeForce3 Ti 500) - pointen er, benytter du relativt lave opløsninger, så kan dit grafikkort klare meget mere end i høje opløsninger. Denne beskrivelse gælder naturligvis kun, såfremt helt specielle VPU/GPU-faciliter ikke er understøttede i Doom3 (og eftersom Doom3 ifølge tidligere udsagn fra Carmack er rettet mod GeForce(1)-arkitekturen, så er dette næppe tilfældet).
Med spil som Unreal 2 og Doom3, tror jeg nok vi får brug for større grafikkort. Et Radeon 9700 er selvfølgelig udmærket, og man vil sikkert kunne spille Unreal 2 og Doom3 tilfredsstillende, men jeg må da indrømme at jeg overvejer meget stærkt at købe NV30... For jeg har brug for det.
Rune skrev Wednesday den 06 November 2002 kl. 11:48: [ svar | nyeste ]
Helt enig, men før Unreal2 eller Doom3 er udkommet, vil jeg personligt afholde mig fra, at investere i NV30. Software før hardware - tænk, hvis både Unreal2 og Doom3 blev rykket til 4. kvartal af 2003. Det fleste aktuelle spil behøver nemlig ikke megen mere ydelse, end GeForce4 Ti tilbyder. I "Quality" i Serious Sam 2 "Grand Cathedral" får jeg aktuelt ca. 27 FPS i 1600x1200x32 på GeForce3 220/487 (med 44KHz EAX-lyd og aktiveret vsync). Radeon 9700 Pro kan løfte dette til ca. 50 FPS, hvilket stadig er alt for lidt - så NV30 skal nå mindst 75 FPS i denne og tilsvarende hårde test, før NV30 bliver rigtig spændende. Men kan NV30 kun levere 75 FPS i 1600x1200x32 "quality" i SS2 Grand Cathedral kan vi jo gisne om, hvor godt Doom3 kommer til at blive afviklet med tilsvarende indstillinger...
Cowboy skrev Wednesday den 06 November 2002 kl. 11:49: [ svar | nyeste ]
Martin er helt galt på den...
Folk som virkelig går efter flot grafik i spil og
ex rendering af animations.. som vil have noget godt og kikke på er det Nvidia nv30. hvem vil ikke have en pæn og flydende grafik. desuden kan jo blive ved med at købe grafikkort og så går der
3 måneder så er der et nyt på gaden.... mange tror at det er ati som er de førende på market NOT!!! det er bare noget de forestiller sig.. point 1 .. Ati kan ikke fremstille gode drivers og desuden er de ikke så compatibel med de nye spil ... buuhh Ati buu buuub´ uuuuu----..
Mick skrev Wednesday den 06 November 2002 kl. 15:54: [ svar | nyeste ]
Man kan da se ud ikke har haft begge typer kort samtidigt. Eller også har du bare ikke noget fornuftigt at sige.
Jeg vil til enhver tid foretrække mit ATI 9700 PRO frem for andre kort - og driverfejl har jeg ingen af.
Derimod har jeg fornem performance med -både- AA og AF slået til. Hvilket er mere end man kan sige om Geforce4. Ellers se blot THG seneste roundup af ATI 9700-baserede kort....
Jeg har ikke noget behov for at råbe "buhu" eller lign. blot fordi jeg finder EEN ting ved et-eller-andet jeg ikke synes om.
Kan vi ikke snart komme over det stade!
Det er den samlede vurdering som må tælle - og her på sitet vel ud fra den overordnede linie Rune & allied har lagt for dagen?
Eller måske skal man foreslå Rune et "ble-tjek-filter" så han kan sikre at kun rimeligt kompetente +5 årige besøger HWT .... ;)
Martin skrev Wednesday den 06 November 2002 kl. 12:41: [ svar | nyeste ]
Okay, okay, jeg gir mig ;o)
Men hvordan kan det være jeg ikke kan tage opløsnningen på mere end 1172*768 unen skærmen skriver: OUT OF RANGE og stilles tilbage igen???
Jeg har Geforce 4 ti 4200 64 MB Ram. Jeg har (desværre) ikke så meget forstand på det med båndbredde og algoritmer og anisotropisk -jeg-ved-ikke-hvad... :-)
Men hvoff kan jeg ikke køre med høj opløsning???
Rune skrev Wednesday den 06 November 2002 kl. 12:50: [ svar | nyeste ]
Sandsynligvis fordi dit grafikkort er sat til højere opdateringsfrekvens end din skærm kan klare.
Martin skrev Wednesday den 06 November 2002 kl. 13:08: [ svar | nyeste ]
Min skærm er på 75 hertz. En skærm med højere hertz-frekvens vil kunne klare højere skærmopløsninger???
Skønt... Jeg må spare sammen til en skærm...
Tak for svaret!
:) :) :) :) :) :) :) :)
80.62.18.96 skrev Wednesday den 06 November 2002 kl. 14:11: [ svar | nyeste ]
Jeg tror vi ser det første grafikkort til 5000kr fra ny den første måned. Med disse specs: 64bit farver, ok er det ikke 10bit radeon9700pro har?
De rigtig interessante spørgsmål til ovenstående billeder må da være følgende:
Hvordan omregner man Floating Point operations per second om til meter ??? Hvor lang er en FPO/S ???
Hvordan regner man meter om til liter ??? Er det muligt at købe en meter mælk ???
og tilsidst:
hvordan konverterer man befolkningen i Seoul om til amerikanske dollar-seddler ??? Har Nvidia virkelig værdisat hver enkelt beboer i Seoul ???
:)
Jan Tams skrev Wednesday den 06 November 2002 kl. 15:32: [ svar | nyeste ]
Jeg tror kortet kommer til at hedde
nVidia Voodoo6 = NV30
nVidia Voodoo6MX = NV31
nVidia Voodoo7 er selvfølgelig NV35
Nu er det jo sådan at 3dfx jo stadig har en del at skulle ha sagt. Især når det er en gammel produktionschef for 3dfx, der står som leder i nVidia's udviklingsafdeling!!!
Hvad tror I det kommer til at hedde????
Jeg tror ikke voodoo kommer til at indgå i navnet. 3dfx har jo alligevel ikke så meget at skulle sige, da det reelt ikke eksisterer længere. Jeg tror de benytter "force" i navnet. Rune spår at FX kan indgå i navnet, så FXforce, men lyder jo lidt mærkeligt. ForceFX er måske bedre.
jeg ved ikke om NV30 kommer på det næste grafikkort fra Nvidia.. men det næste kort der kommer er Geforce5, og der efter GeForce 6. det var først meningen de skulle hedde Dreajmforce 1 og 2, men de holdte sig til Geforce.. så mon ikke NV30 grafikkortet kommer tilat hedde Geforce..
Mads skrev Wednesday den 06 November 2002 kl. 16:50: [ svar | nyeste ]
Kristian: 3dFx har meget at skulle ha sagt, se der kommer noget der gør at man er i stand til at bruge Glide til sit grafikkort :D. Desuden var 3dfx jo dem der revolutionerede branchen.
den der med dreamforce er vist en and. Jeg tror ikke på den kommer til at hedde hverken gforce eller dreamforce.
ForceFX lyder altså også lidt klodset :-)
Hamselv skrev Wednesday den 06 November 2002 kl. 16:58: [ svar | nyeste ]
Jeg mener Nvidia selv har offentliggjort at geforce navnet er dødt. Det vil ikke blive brugt til fremtidige produkter.
Efter min mening kunne de bruge kodenavnet fra den sidste chip fra 3dfx, "Rampage" hvis de er så selvsikre med hensyn til performance :)
kowalski skrev Thursday den 07 November 2002 kl. 21:28: [ svar | nyeste ]
Jeg har hørt rygter om at kortet kommer til at hedde "DX9", og at "Geforce" navnet er uddødt. Er det sansynligt?
Rune skrev Thursday den 07 November 2002 kl. 21:56: [ svar | nyeste ]
"DX9" kommer NV30 helt sikkert ikke til at hedde. "DX9" er en forkortelse af "DirectX9", som er nyeste udvikling af DirectX-api'en fra Microsoft. Men det er meget muligt, at NV30 ikke kommer til at hedde "GeForce"-et-eller-andet, da Nvidia med NV30 introducerer helt ny (teoretisk set revolutionerende fremfor evolutionerende) teknologi (takket være implementering af førende 3dfx-teknologier).
men hver gang jeg klikker på et af billederne, i håb om at få en stor version, får jeg en irriterene fejlbesked smidt i nakken:
An error occurred in processing this image.
Nogen der kender et andet site, hvor man kan se de billeder i stort format?
0x503e179a.naenxx2.adsl.tele.dk skrev Wednesday den 06 November 2002 kl. 17:15: [ svar | nyeste ]
Som ham Martin siger... har man BRUG for det... Ikke fordi jeg ikke godt kunne tænke mig et ATI 9700 pro eller det kommende NV30 men alligevel 3-5000 kr for et kort som i løbet af kort tid alligevel ikke er "up-to-date" og så løber man ud og giver de næste 3-4000 kr for det næste pga det har lidt flere ram, features, bedre drivere... Ehh kan jeg ikke lige se nogen grund til... kort som GeForce 3 og 4 kortene kan stadig følge med i de FLESTE spil selv de SÅÅ dårlige mx kort... Har da læst om et par stk der godt kunne gøre UT2003 i næsten max details med et GF4 MX kort såååå slap dog lige off ik.. :-) Det eneste der er en bliver sjovt at se det er R350 VS Geforce 4 TI4200 da de begge ligger i en NORMAL prisklasse... ved dog ikke helt med R350 da det ikke er i butikkerne endnu ( som det skulle have været )
R350 skulle aldeles ikke have været i butikkerne endnu.
Alt det PR gejl, som nVidia rigtig godt kan li' at fyre af, kan R9700 også langt det meste af.
Hvor NV30 kan ta' op til 128 bit indtern farve, kan R300 ta' op til 96 bit. Det skal lige siges, at man idag bruger 32 bit, og at 64 bit først vil blive brugt om en del år, så det er egentligt overkill det med 96 og 128 bit.
R300 er også en Foatingpoint pipeline VPU, derfor er der heller ikke noget nyt i det.
Kristian -> Hører 2800-2900 ikke også ind under 2000-3000 ?
Lad os sige, at Radeon 9700 PRO kommer til at ligge på en 2800-2900. Radeon 9700 kommer dermed til at ligge på en 2000-2300. Så har nVidia også et rimelig stort problem, med mindre NV30 viser sig at være et vidundergrafikkort (hvilket jeg tvivler det bliver).
Jeg kan sagtens finde situationer i UT2K3 (1600*1200), hvor Radeon 9700 PRO er 50% hurtigere end Geforce 4.
Igen må jeg påpege, at Radeon 9700 PRO ifølge nogle, som har udførst et par tests, er ca. 2x så hurtigt som Geforce 4 Ti4600 til Doom 3 alphaen. Nu ved jeg godt, at det kun er en alpha. Men det må da sige et eller andet... specielt når man så tager med, at der IKKE er indbygget nogen renderingpaths for R300, hvilket der er for NV20, NV30 og Parhelia.
Når de skriver 2x hurtigere end Geforce 4, mener de så i DX9? For der kan jeg love for, at R300 også er 2x hurtigere.
Jeg må give Rune tildels ret i det med software først. Men man kan også stå i en situation, hvor det er strengt nødvendigt med et nyt grafikkort... hvis nu man var ejer af et TNT2 eller Geforce. Så har man nok ikke lige tålmodighed til at vente på NV35.
At sammeligne NV30 med en raytraced film er jo helt hen i vejret! Der er jo stor forskel på de to beregnings metoder, og det kan vel forhåbentlig ses i kvaliteten! Groft sagt følger raytracing en lysstrål for hver pixel i billedet, og undersøger hvilke objekt det rammer, tager højde for dens refleksion, overflade osv, og følger strålen videre, indtil et angivet niveau. Forstiller man sig to spejle over for hianden, vil et højt niveau af refleksioner kunne skabe de mange spejle inde i spejlet, inde i spejlet, inde i ....
Groft sagt vil et grafikkort beregne et par enkelt punkter, og gætter sig til hvad der ligger i midten, ud fra det trådgitter man kender fra wireframes modeller. Her kan det godt være den kan "simulere" refleksion og andre sjove effekter, men effekten vil altid være optimeret i hastigheden, og dermed gå på kompromis med kvaliteteten!
Prøve at lade et grafikkort vise effekter som refraction og radiosity!
Til stig:
Såvidt jeg ved, raytracer de fleste spil flere gange, og i mange baneeditorer kan du tit stille raytracing, selvom det selvfølgelig så er fastlåst. Alligevel behøver man ikke vildt meget raytracing, da virkelighedens objekter tit har en albedo (tilbagekastningsevne) på under 0.5, så raytracing mere end den fjerde gang kun tilbagekaster under 1/64 af lyset... det falder eksponentielt... Det er jo oxo meget anderledes end med spejle, da lyspartiklerne bliver spredt meget mere tilfældigt. Det gør jo det hele noget simplere. Så vidt jeg ved, bruger spejlrefleksioner i spil ikke raytracing, men mere simpel matematik, der spejler vektorer inden for det modsatte af spejlet og fører dem ind i spejlets område. Hvis man ville have den uendelige spejl-effekt på computeren, ville det svare til at man startede en uendelig løkke... og det fører jo ikke til meget... i virkeligheden ligger grænser ved det enkelte lyspartikkel, men selv et spejl har en albedo under 1. Og vi ville jo aldrig kunne se det, da vi så skulle stå midt i partiklets 'ping-pong' bane... og derved blokere det...
Det som i virkeligheden kommer til at revolutionere 3d grafikken i spil, er bump mapping... som fx i Doom 3... og så selvfølgelig det gratis antialiasing og bumpmapping, som 'snyder' øjet, så grafikken kommer til at virke i højere detalje-grad... og noget nærmere det matematiske univers modellen virkeligheden eksisterer i.
Jeg kan kun råde dem der tvivler til at se de doom 3 film, der ligger her på siden... jeg synes at de er ret overbevisende... og så kan vi jo kun håbe på at NV30 kan køre det... hvis det kan, behøver de ikke at overbevise mig mere om hvor godt kortet er... jeg er mere end overvældet...
Ja, så for du da en forbedret ydelse i 3d-spil der vil kunne mærkes.
Dengang jeg opgraderede fra GeForce2 MX PCI til GeForce3 Ti 200 scorede jeg bedre i 3DMark2001 i 1600x1200 end jeg plejede i 640x480 :)
Glæder mig til sådan en forbedret ydelse kommer igen...
Er der ikke en eller anden der kan give mig nogle gode argumenter for at skulle investere i et NV30 baseret kort? Eller et ATI whatever kort for den sags skyld???
For ca. 1,5år siden kørte jeg med det gode gamle "Matrox Millennium G200", sammen med 2 Voodoo2 kort i SLI. OK de kort var da godt nok ved at få svært ved at følge med men der var da ikke noget der kørte så slemt at det ikke stadig var sjovt. Har f.eks. spillet rigtig meget RtCW med de kort, og det kørte bare som det skulle :)
Den eneste grund til at jeg skiftede til et 'GeForce2 MX400' var faktisk at jeg opgraderede resten af min maskine til en P4, hvor nogle nødder havde besluttet sig for at ændre på AGP porten så Matrox-kortet pludselig ikke kunne bruges længere.
Idag sidder jeg stadig med mit GF2 og der er ikke noget spil som ikke kører som det skal.
OK ok... Godt nok har det nogle rigtig seriøse problemer med den leakede Alpha-version af et vist spil, men hva' faen det er stadig 'kun' Alpha, og når det engang bliver sendt i butikkerne vil et NV30-kort vel ikke koste mere end max 2000 (billigversioner (MX-serien)).
Til den tid kunne jeg måske overtales til at opgradere til sådan et kort, men det der pladder med at opgradere Gfx-kort bare fordi der er kommet noget nyt på gaden som kan mere end det jeg har... Helt ærligt... Selv hvis jeg vandt et par millioner i lotto, ville jeg have svært ved at betragte det som andet end at smide penge ud af vinduet.
Fuld respekt for dem der føler at de har råd til at følge med udviklingen, men tænk lige på hvor meget andet de penge kunne være brugt til, måske endda ting som stadig ville blive brugt 1-2 år efter købet :)
Vi er nok alle enige om at det er en lækker tanke altid at have det nyeste største mother f***er kort på markedet, men hvor mange spil bliver rent faktisk sjovere af at køre 1600x1200 med 100FPS, end 800x600 med 80FPS???
Enig... Det ser da helt sikkert rigtig fedt ud i 1600x1200, men hvor mange spil bliver egentlig sjovere af at man kan se alt det nye lir som spil/kort-producenterne hele tiden kan levere?
Hmm... Det er vist rimeligt tydligt her at jeg har mistet alt respekt for hardware/software udviklingen efterhånden... Kan det betegnes som andet end et forsøg på at tage r**en på brugerne, i håbet om at tjene flere penge?
Vent lige lidt...
Sådan :)
Så har jeg taget beskyttelsesdragt på, for jeg en god fornemmelse for hvor mange kommentarer jeg får smidt i nakken nu, men jeg skulle altså bare lige lette trykket... Sorry ;) hehehe
Wargasm skrev Wednesday den 06 November 2002 kl. 20:41: [ svar | nyeste ]
Kommer vel an på hvad folk vil bruge deres grafikkort til. Hvilke spil man spiller. Jeg er f.eks. rimelig træt af at få 12 fps når der er 30 folk omkring mig på Kursk i Battlefield1942. Det er 1024 og low/medium settings.
Der er ingen WH producent der kan lave et grafikkort uden penge. Og de kan ikke lave det 10 år før tid. Det tager ca. 3 år at udvikle et grafikkort. At prisen er høj fra starten er alm business. Udbud/efterspørgsel. Også en af årsagerne til at ATI og nVidia udgiver kort så lang tid fra hinanden. Flere penge i kassen.
1 GB RAM på grafikkortet er ikke urealistisk, sålænge resten af kortet ikke er flaskehals i forhold til RAM. Men på nv30, arj vel. Om 2-4 år er det alm.
Zarathustra217 >> Selvfølgelig forventer jeg ikke de uendlige spejle i raytracing, det var bare et godt eksempel.
Fandt lige mit gamle Ligthwave. Her stor "ray recusion limit" til 16, men det kan jeg vel bare sætte til 2? De små nuancer som kommer efter mange refleksioner betyder noget! F.eks
en rød og en blå kugle op af en mat hvid væg. Selv om det ikke er meget, kan man alligevel se farvernes spil i væggen, og på kuglerne!
Hvordan vil et grafik kort beregne:
Depy og field (nogen ting er fokus, andre ting er uskarpe)
Montion blur. (antialiasing over tid)
refraction (lyd der bøjer sig i et glas vand)
Desuden har jeg aldrig set et grafikkort beregne skygger ordentligt. Dvs. at overgangen mellem skyggen og lyset er skarp, ved en lille afstand mellem objektet og f.eks gulvet, mens den bliver stadig mere "fusszy" ved større afstande.
Selv om mange af det er små detaljer, er det alt sammen noget det får billedet til at virke ægte, eller hvad man nu ønsker at ramme.
Alle sammen effekter som bliver brugt i film som Shreck og Final Fantasy.
Orh ja sad og læste nogle gamle pc-player blade, hvor de skrev om Gforce 1. Der stod den sædvanlige smøre med at pcspil ville blive ændret for evigt osv osv...Jeg vil se nogle ordenlige testresultater før jeg bestemmer mig for om jeg ska ha radeon 9700 pro eller nv 30!!
Metoden skrev Thursday den 07 November 2002 kl. 03:45: [ svar | nyeste ]
Mht til alt den snak om vores kort kan afvikle Doom 3. I tror da vel ikke at ID vil udgive et spil som kun dem med et NV30-35 kan spille??? De vil vel gerne sælge nogle spil. Når de en gang er færdig med at optimere på det, er der nok også en masse for os med NV25.
Metoden -> Hvis du har fulgt lidt med, vil du se, at tror folk også godt, da et NV25 (og et Geforce 2 for den sagt skyld) godt kan trække Doom 3 alphaen.
Jasp skrev Thursday den 07 November 2002 kl. 08:59: [ svar | nyeste ]
Hej Rune
Jeg sad lige og læste i privat computer at Microsoft snart er klar med DirectX 9.0
Men de skrev intet om hvad det går ud på. Er det ikke noget med grafikken og får det nogle betydning for de nye grafikkort eller er jeg helt gal på den ?
På forhånd tak
Jasp
Rune skrev Thursday den 07 November 2002 kl. 10:57: [ svar | nyeste ]
DX9 introducerer et meget stort antal ændringer, som det ikke vil være muligt at beskrive detaljeret i denne kommentar. Du kan dog læse DX9 preview på tysk her:
"Mr David Kirk, NVIDIA's chief scientist describe NV30 as a full floating point processor with thousands of instructions and a high level language. For the past years, NVIDIA main focus is on improving the GPU speed rather than designing a complicated pipe but for NV30, things will change. CineFX architecture work in conjunction with Cg programming language will make NV30 a fully programmable GPU with flexible instructions for vertex and pixel processing. It is expected that Microsoft will probably start supporting CineFX architecture with DirectX 9.1 therefore NV30 may be based on DirectX 9.1 when launched. Shading processing currently performed by the CPU on the present graphics workstation can be performed by NV30 in accuracy now. NV30 is expected to execute hundreds of shader instructions real time but for a thousand instructions on real time will be mapped out for next generation GPU. (måske menes her NV40, mine fremhævninger, red.)"
Så kom Lars Triers måde at optage håndholdt video også til CA :-) Er lidt forundret over NVIDIA's måde at markedsføre sin NV30'er på, det er sikkert tidens trend, men det virker knap så seriøst.
Jeg glæder mig meget til at se den performe live.
Mads skrev Thursday den 07 November 2002 kl. 13:02: [ svar | nyeste ]
Jeg kan ikke se det fede i DX9, spillene der er ude idag, er jo først lige begyndt at udnytte DX8...
Hej Mads.
Jeg tror desværre ikke du aner hvad du snakker om!
Rune skrev Thursday den 07 November 2002 kl. 13:19: [ svar | nyeste ]
Mads har nu i mine øjne en fin pointe; der er meget få DX8-spil ude, som benytter avancerede DX8-egenskaber (såsom pixel og vertex shader), hvilket tyder på, at der sandsynligvis går meget lang tid (fordi spil efterhånden tager flere år at udvikle), før ægte DX9-spil udkommer. Og når disse DX9-spil endelig udkommer, er NV30 næppe et high-end grafikkort. Det vigtige ved fremtidige grafikkort er derfor ikke nødvendigvis, at DX9 understøttes, men at eksisterede og især kommende DX8-spil afvikles særligt fordelagtigt (med f.eks. aktiveret FSAA og anisotropisk filtrering i høje opløsninger). Doom3 er jo ej heller DX9, men OpenGL - og Unreal 2 er DX8.
Næh Rune har fat i noget der. Spillene er lidt bagud i forhold til grafikkortene.
Men er det kun mig der synes at det er meget godt af Nvidia at de stadig holder navnet på dyret hemmeligt?? Der er jo kun 14 dage til, og når man så tænker på at Doom 3 allerede er "kommet" ud i en alpha, selvom der er over et halvt år til release...
selvfølgelig har alpha versioner af grafikkort det også lidt svært ved at sprede sig ud over nettet ... ;)
Til alle jer der har prøvet alpha versionen af doom3, prøv at skriv 'exec highquality' i console... så tror jeg ikke rigtig på at Geforce 2 kan følge med længere...
Det har jeg selvfølgelig ikke selv prøvet, for jeg har jo slet ikke alphaen... det må man jo ikke ha'... hehe ... :D
tror slet ik jeg tør det så går min puter da helt i spunk ;(
Nå back to topic
0x503e1260.esnxx2.adsl.tele.dk skrev Thursday den 07 November 2002 kl. 16:41: [ svar | nyeste ]
Ja så er kortet vel mindre interesant hvis det afvikler directx9 spil dårligt så farvel til den regel kun at opgradere ved hver udgivelse af directx. Det er i værtfald et killer directx8 kort som Radeon9700pro, også dette kortet vil halte med doom3 og andre drx9 spil.
Ang. det med, at Radeon 9700 ikke kan køre Doom 3 ordentligt, når det kommer, er en gang hø.
Jeg kørete lige timedemo i 1280*1024 med High Quality og fik 31,5 FPS.
Og underligt nok, så synes jeg ikke, at man kan rigtig se nogen jaggies. Det plejer jeg ellers at ligge mærke til i andre spil, men Doom 3 er anderledes.
Jeg ved ikke, om det bare er mig. Kunne det være muligt, at du kunne prøve at se efter det Rune?
Rune skrev Thursday den 07 November 2002 kl. 19:35: [ svar | nyeste ]
Doom3 er i mine øjne interessant, når det udkommer (eller officielt demo ankommer). Ikke et øjeblik før. Men check evt., hvilke indstillinger, som du benytter. Mørke spil, dvs. uden høj kontrast mellem forgrund og baggrund, mindsker også behov for FSAA.
Spillet er rimelig mørkt, ja, men selv om der er lys på nogle objekter synes jeg ikke rigtig der er nogle jaggies.
Kan det ikke også have noget at gøre med, at der er så mange polygoner, og at det hele er bumpmapped?
okay jeg glæder mig også til DOOM3 kommer, men der kommer heltsikkert ikke en DEMO, for nogle insiders fra ID software har smidt Beta vertionen fra E3 messen ud på nettet. ID software har udtalt sig at der IKKE kommer en DEMO.
FrosT skrev Friday den 08 November 2002 kl. 00:33: [ svar | nyeste ]
Jeg hader mit 9700 pro det suger MAX!! Ati kan ikke lave driver øvøv 8( har nu "prøvet" 3 spil hvor den ikke kan. det fryser!! så nv30 here i come nvidia kan sq det med driver!! og weee jeg fik hele 1500 mere i 3d mark end med mit gamle GF4 ti4600 :P baah!
Der bliver sq ikke tale om noget revolutionerende. Når vi nu engang kan købe det om 5-6 måneder så er det sq da klart at det er bedre end ATI 9700. Det manglede sq da bare også når nu ATI's produkt er udviklet 9 måneder før. I virkeligheden har Nvidia et problem eftersom livscyklussen for Grafikchips nærmer sig 6 måneder dvs ATI kunne have en opfølger til 9700 klar ganske kort efter NV30
Hvad får dig til at tro, at der går 5-6 måneder før NV30 kommer på gaden?
Rune skrev Friday den 08 November 2002 kl. 09:22: [ svar | nyeste ]
Nyeste info publiceret på NVNews baseret på "NVIDIA's earnings conference call" og "CEO and President Jen-Hsun Huang" indikerer, at NV30 vil ankomme massivt i første kvartal af 2003, formodentlig allerede fra januar (hvilket passer fint med introduktion november 2002 og masseproduktion januar 2003):
Yeah :). Tror nu også godt de kan hamle op mod ATI selvom de er bagud i forhold til dem.
Bl.a. fordi Nvidia er bedre til at lave drivere, og fordi alimindelige folk "bedre" kender Gforce end Radeon.
Næsten alle tilbud der er på mærkevare computere har jo et gforce x kort i sig, det er meget sjældent man ser et med radeon XXXX.
Rune skrev Friday den 08 November 2002 kl. 10:54: [ svar | nyeste ]
Dette emne er dog kun perifært relateret til NV30, men ifølge denne artikel, så er Nvidias markedsandel i 3. kvartal 2002 steget med 2% til 58%, mens ATis på trods af Radeon 9xxx (Pro) er faldet med 3% til 33%:
Alt dette tyder på, at Ti 4200 har sejret stort, mens high-end grafikkort kun sælges i meget begrænset antal. Så Nvidia behøver ikke nødvendigvis NV30 for at vinde større markedsandele - sålænge de kan sælge det mest attraktive mellemklasseprodukt (netop derfor er Radeon 9500 (Pro) vel på vej).
Altså hvis shipping starter i Q1 (måske januar) så betyder det at Asia og Amerika vil have produktet i løbet af januar - i bedste fald!
Det betyder med 200% sikkerhed at danske forhandlere ikke vil have det før allertidligst februar og mere sandsynligt marts.
Rune skrev Friday den 08 November 2002 kl. 16:13: [ svar | nyeste ]
Det vil tiden vise - formodentlig vil der ankomme enkelte NV30 grafikkort i år - og er prisen tilstrækkelig høj, så bliver efterspørgslen næppe stor. Derudover er hverken Unreal 2 eller Doom3 udkommet endnu, så evt. forsinket NV30 ankomst ser jeg ikke som et problem - så kan ATi muligvis også nå at overraske med måske R350, hvilket nok vil gøre alting lidt mere spændende, især mht. prisniveau...
lidt off topic, men rune har du ikke nogle links til sider med info om R350, har prøvet at søge på nettet
Please hjælp mig :)
Rune skrev Saturday den 09 November 2002 kl. 11:17: [ svar | nyeste ]
Jeg tror desværre ikke, at du finder ret meget - ATi giver ikke meget ved dørene, men kampen mod Nvidia er også hårdere end nogensinde før...
Rune skrev Saturday den 09 November 2002 kl. 19:45: [ svar | nyeste ]
Nvidia har opdateret deres mere eller mindre officielle "NV30-side" med denne ganske interessante artikel (dvs. så interessant som en NV30-artikel nu engang kan være, når den er formuleret af producenten og ikke indeholder specifikationsoplysninger):
Om to til tre måneder vil jeg gætte på at der komme en version 3:
3 - NV30 core@350 MHz og 128 MB DDRII 800 MHz ram
Hvad gætter I på?
Thomas skrev Sunday den 10 November 2002 kl. 20:48: [ svar | nyeste ]
"Lidt interessant er dog den fuldstændige support af kommatalsberegninger, som formodentlig vil gøre NV30 i stand til særligt avancerede matematiske beregninger (læs geometri/polygoner, transformationer osv.).".. Øhh - Implementering af kommatal i hele pipelinen på NV30 betyder at precisionen af beregningerne (billede kvaliteten) bliver størrer, men næppe at NV30 kan udføre mere komplekse beregninger! 3D Transformationer og den slags er ikke ligefrem raketvidenskab, det kræver bare lidt processorkraft at udføre på en hel masse geometri, og en god slat precision hvis renderingen skal være i 64-bit eller højere farvedybde..
TP skrev Tuesday den 12 November 2002 kl. 11:06: [ svar | nyeste ]
Klip fra Firingsquad
"The next-generation GPU from NVIDIA makes no compromises and takes no prisoners," says David Kirk, NVIDIA's chief scientist. "This new GPU uses the world's fastest memory technology, delivering higher performance than any other GPU-there's simply no substitute for effective memory bandwidth," he says. "It also has the most advanced, programmable rendering pipeline of any GPU, with higher mathematical precision than any other GPU on the market today."
Some folks in the industry ask: "Is the games industry ready for this level of advancement?" Kirk says they are. "The movie industry has taught us that 128-bit precision and incredible levels of programmability are absolutely necessary for cinematic-quality special effects. Half measures like 96-bit precision are inadequate for many critical functions, such as texture addressing, geometric calculations like reflection and shadows, and so on," says Kirk. "Likewise, limiting pixel shader programs to just one or two hundred instructions is way too restrictive. Most of the really interesting shaders that we've seen require as many as 500 instructions, and some require even more. What we're talking about here is the ability to make games and interactive content look exactly like movie special effects do. Higher limits will allow developers to make truly realistic objects that appear to be made of real materials, with realistic reflections and shadows, all in a single pass-and all in real-time. This is simply not possible without these higher limits," he says.
Rune skrev Tuesday den 12 November 2002 kl. 11:19: [ svar | nyeste ]
Ja, bemærk, at henvisning til hele originalhistorien findes 5 kommentarer højere oppe.
Tjaeee ... det er da bare det sædvanlige Nvidia gejl. Faktum er, at det nu er bekræftet at Nv30 først vil kunne købes i januar/februar.
Dette koblet sammen med forlydender om at kortet vil være 25-50% hurtigere end R9700Pro, hvilket sandsynligvis så kun er 25%, er bekymrende.
Med så voldsomme forsinkelser forventer jeg da at kortet giver ATI voldsomt baghjul, men med Ati på trapperne med R350 ser det sort ud for Nvidia.
Rune skrev Tuesday den 12 November 2002 kl. 23:27: [ svar | nyeste ]
Da Radeon 8500 udkom, havde Nvidia med GeForce3 og ATi således to grafikkort, som var relativt jævnbyrdige. Hvis R350 ankommer nogenlunde samtidigt med NV30, er det muligt, at vi har en tilsvarende situation. Jeg tror bestemt ikke, at fremtiden ser sort ud for hverken Nvidia eller ATi. Og selv om NV30 lå i butikkerne aktuelt, ville jeg ikke anbefale at købe et sådanne grafikkort. Først software, så hardware. Og Unreal 2 eller Doom3, som i mine øjne aktuelt er eneste overbevisende argumenter for et grafikkort til ca. kr. 4.000,00, er slet ikke udkommet endnu (ifølge et par tyske PC magasiner er det dog muligt, at Unreal 2 ankommer inden jul - men dette satser jeg dog ikke mine sparepenge på).
port109.ds1-rd.adsl.cybercity.dk skrev Thursday den 14 November 2002 kl. 00:01: [ svar | nyeste ]
Med hensyn til at driverfejl i Radeon 9700 så kan jeg kun sige at I tager fejl. Der er fejl i Radeons drivere. Se eventult her
og her
Så det er ikke fedt at have et Radeon 9700 der skulle være kompatibelt med DX9 når det ikke engang kan lave alle systemkald under DX8. Så hellere et kort fra nVidia hvor man ved at driverne virker at de så samtidig er suveræne deres drivere, det er jo også et plus. Derudover er jeg nu også godt tilfreds med at nVidia har Linux drivere der er virkelig suveræne (og FreeBSD).
Hmm ... Og der har aldrig været fejl i Nvidia drivere?
Der er små bugs i Ati's drivere, der går mig på neverne, men faktum er at SAMTLIGE spil jeg har installeret drøner derudaf på mit R9700 nu.
Til de heldige R9700 ejere der ikke ved det endnu, kan i nu hente DX9 fra microsoft samt DX9 understøttede drivere fra ATI. Når i har gjort det så hent ATI's DX9 demoer også. De er fabelagtige og vil gøre enhver Nvidia ejer misundelig ..
Hvilke egenskaber i DX9 skaber din begejstring? Er der noget virkeligt nyskabende?
Rune skrev Thursday den 14 November 2002 kl. 10:52: [ svar | nyeste ]
Man skal naturligvis aldrig skrive aldrig, men faktum er, at jeg i skrivende stund har testet et stort antal 3D-spil (over 50), og jeg har ikke observeret så meget som én eneste fejl med Detonator 30.82. Samme gælder aktuelt 40.72 (og faktisk også en lang række andre Nvidia referencedrivere - dette er vel også grunden til, at Nvidia i aktuel videofilm omtaler deres drivere som "The Golden Standard"). Og dette gælder selv gamle spil fra 1996. Men selvfølgelig, begynder man metodisk at teste flere hundrede spil, så kan det selvfølgelig være, at man finder et par fejl, men jeg har som skrevet ingen konstateret hidtil (hvilket dog nok også skyldes, at de fleste spil i årevis er blevet udviklet primært til Nvidia grafikkort).
Rune skrev Thursday den 14 November 2002 kl. 10:46: [ svar | nyeste ]
Nvidia har atter opdateret deres "AreYouReadyNV30-side" med en beskrivelse fra John Carmack:
"My current work on Doom is designed around what was made possible on the original GeForce, and reaches an optimal implementation on NVIDIA's next-generation GPU. My next generation of work will be designed around what is made possible on NVIDIA's next-generation GPU."
Bemærk dog, at denne tekst kan læses på flere måder, og der står netop ikke, at Carmack's næste udvikliongsarbejder ikke vil kunne afvikles optimalt på kommende ATi grafikkort - Carmack udtaler sig kun om NV30, hvorfor denne beskrivelse naturligvis ikke kan anvendes til at vurdere fremtidsaspekter for ATi-grafikkort (blot for at komme underlødige kommentarer i forkøbet).
Lad det være sagt med det samme. Jeg er ligeglad med hvem der er bedst. Hvis NV30 pulverisere ATI skifter jeg da. Vil have de bedste oplevelser i mine spil.
Rune: Du ved godt at Nvidia kører med PR maskinen nu. Hvis du henter Radeon 9700 PR filmen vil du også hører Carmack tale rosende om R300 Chippen. Selvfølgelig vil Doom3 da blive optimeret til ATI ejere. ID vil ramme så bredt som muligt. Det er cool business, så alt andet vil være vanvittigt.
Til kristian kan jeg kun sige at DX9 så sandelig er imponerende. Er sikker på du vil sige det samme når du kører NV30 demoer på dit kommende kort :) At vi så ikke vil se spil der udnytter det før om hundrede år er en anden ting. Det er lir, men det ser godt ud!
Rune, den kommentar er mange mdr. gammel.
Før han udtalte, at lige meget hvad nVidia gjorde, så var R9700 kortet til at køre Doom3 på e3...
port109.ds1-rd.adsl.cybercity.dk ->
1. Få dig et navn!
2. Kig på datoen... den er over 2 mdr. gammel. Der er kommet omkring 4-5 nye drivere siden!
Rune skrev Thursday den 14 November 2002 kl. 18:47: [ svar | nyeste ]
Det er jeg klar over, såvidt jeg erindrer, har vi anført den tidligere som kommentar til en NV30-artikel (eller Doom3-artikel), men det betyder naturligvis ikke, at den ikke er relevant og/eller aktuel.
Derudover ser det ud til, at NV30 kommer til at hedde "GeForceFX":
Hmm, der er vist noget mukkent ved rygtet, det viser sig at NVIDIA ikke har registreret domainet http://www.geforcefx.com : http://www.netsol.com/cgi-bin/whois/whois?STRING=geforcefx.com&SearchType=do
Jeg tror det er en spøgefugl der har været i gang.
Inde på GeForceFX.com - "This site is not affiliated with nVidia!"
Hmm...
Rune skrev Friday den 15 November 2002 kl. 10:46: [ svar | nyeste ]
Det har du og Kristian vist ret i, NVNews skriver dette om "GeForceFX"-navnet:
"Update: Talk about shooting yourself myself the foot with this rumour post. Not only did NVIDIA mention that they'd be dropping the GeForce nomenclature with the NV30, but that GeForceFX site doesn't even belong to NVIDIA. Doh!"
Rune skrev Friday den 15 November 2002 kl. 12:25: [ svar | nyeste ]
The Inquirer har i ny artikel beskrevet, at NV30 vil blive ca. 30% hurtigere end Radeon 9700 Pro, her er et videregående citat:
"The NV30 chip will feature eight pipelines and two TMUs – that's one more than ATI – and this will give it quite a boost since it will be able to render 16 textures per pass...We can also confirm that with 1.0 GHz data rate plus Lightspeed Memory Architecture 3, a card will be able to reach an amazing 48 GB/s, double what the Radeon 9700 PRO can do with its DDR 256 bit memory. Remember Nvidia will use 128 bit memory this time and will save its breath for 256 bit DDR II for future designs. As for anti-aliasing, you will be able to use FSAA 8X now and anisotropic filtering will go up to 128 tap anisotropic filtering leaving ATI's methods in the dust."
Hvor amatøragtigt af Inq... NV30 får ikke 48 GB/s båndbredde.
Det er IKKE QDR, men DDR2. Så man får ikke flere takter pr. frekvens. Eneste fordel er de højere clockfrekvenser.
Så den får sådan set ca. 4 GB MINDRE end Radeon 9700 PRO.
Hvis de 48 GB derimod er teoretisk, så kan Radeon 9700 PRO håndtere ca. 60 GB.
200 Mill.??? Radeon 9700 PRO kan klare 325 mill. triangles.
128 tap er ligmed 16xAF+Trillinear filtering, hvilket Radeon 9700 PRO også kan. Som Radeon 9700 PRO ejer kan jeg sige, at i 1024*768 og opefter kan man ikke rigtig se nogen forskel fra 4-6x AA. Derfor finder jeg udtalelsen "leaving ATI's methods in the dust" endnu et bevis på, at Inq. fyrer en masse møg af om ting, som de ikke ved noget om.
KUN 30 % med AA+AF???.... skuffende.
Man må jo så bare håbe, at det Inq. skriver ikke passer... ellers bliver det lidt af en skuffelse.
Som jeg læser The Inquirer opnås de 48 GB/s vha af 1 GHz DDRII-ram og Lightspeed Memory Architecture 3. Med mindre du kender de tekniske detaljerne bag Lightspeed Memory Architecture 3 kan du vel ikke afvise 48 GB/s.
Hvis det Inquirer skriver passer, ser NV30 aldeles fremragende ud, f.x. lyder dette interessant:
"Some figures seen on the Nvidia official documents in Vienna show that the NV30 will be 2.5 times faster in quake 3 than TI 4600, 3.5 times faster in Doom 3, and three times faster than 3dmark 2001 SE but this remains to be seen."
Hvorfor er ser du Oraklet (The Inquirer) som en amatør hjemmeside, der fyrer en masse møg af? Jeg ser netop Inquirer som en pålidelig kilde med baglandet i orden, men der er vel forskel på hvilke øjne der ser på det. Har du eksempler på episoder hvor Inquirer har "fyret møg af", ser jeg dem gerne.
Inq er OK - de har bare et ufortjent dårligt rygte, de der mener at inq kommer med masser af udokumenterede rygter bør kunne fremvise en 4-5 uden problemer. Jeg tror på at Inq har minst 90 % ret mht. nv30.
Rune skrev Friday den 15 November 2002 kl. 23:39: [ svar | nyeste ]
48GB/s båndbredde er en gammel nyhed; meget kommer dog an på Light Speed Memory Architecture III, som Kristian også er inde på (eftersom NV30 sandsynligvis har særligt fremragende "occlusion culling"/"hidden surface removal" - så de 48GB/s båndbredde er sandsynligvis effektivt set, dvs. 6 gange hurtigere end GeForce3 Ti 500) - læs mere her:
De 48 GB/s er teoretisk. Den får kun noget med 16 GB/s!
ATi gik da heller ikke rundt, og snakkede om, at de teoretisk havde noget der lignede 60 GB/s båndbredde med Radeon 9700 PRO!
60 GB/s med Radeon 9700 Pro må du lige uddybe! På mandag får vi forhåbentligt en mere detaljeret beskrivelse af NV30, og så kan vi måske bedre forklare de 48 GB/s.
Jeg regner med, udfra hvad jeg har læst her på HTW og resten af internettet, at NV30 bliver R300 langt overlegent, men før vi har set nogle resultater er det hele teori/gæt. Jeg bliver nu ikke overrasket hvis NV30 slår R300 med mindst 40% i opløsninger på 1280x1024 og derover. Radeon 9700 PRO med et AMD-baseret system har i følge X-bit Labs vist svagheder; i opløsninger op til 1280x1024 bliver Radeon 9700 PRO slået af Geforce4 ti4600 i visse OpenGL spil!
En kombination af NVIDIA's fremragende drivere og hardwaredesign vil IMHO resultere i de bedste odds for NV30. Men som sagt lad os afvente nogle resultater, Matrox Perhalia viste os at teori og praksis kan lægge langt fra hinanden.
De eneste steder jeg kan se Geforce 4 værende hurtigere, er i 800*600. Og er dette så mystisk?
Nej. Geforce 4's drivere er jo godt 1½ år gamle, da der ikke er den store forskel på Geforce 3 og Geforce 4. Dermed er de mere optimerede.
Radeon 9700 PRO's er 2 mdr. gammel, og ATi går forhåbentlig ikke efter at optimere deres drivere til 800*600, for det er ikke det, som man har købt kortet til.
Kig i 1600*1200 UT2K3, der er Radeon 9700 PRO næsten 2x så hurtig UDEN AA eller AF.
Jeg forstår ikke hvorfor du tror på det bedste i den artikel, men ikke det dårlige. Der står jo, at NV30 skulle blive 30% hurtigere... men du siger 40%.
Radeon 9700 PRO har OGSÅ compression teknikker, det som de kalder HyperZ III (mener jeg det hedder). Derfor har den ca. 60 GB/s teoretisk båndbredde, men "kun" ca. 20 GB/s rå båndbredde.
NV30 har så 48 GB/s teoretisk båndbredde, men kun ca. 16 GB/s rå båndbredde.
Det er ikke nVidia jeg kritiserer, men Inq.
Jeg håber også, at NV30 bliver et hurtig og godt kort, for det kan kun være med til at skubbe udviklingen.
Men HVIS de højest kan hoste op med 30 % højere hastigheder, bliver jeg lidt skuffet.
Der er 6 mdr. imellem Geforce 4 og Radeon 9700 PRO, og 6 mdr. imellem Radeon 9700 PRO og NV30.
Radeon 9700 PRO gn. 75-150 % hurtigere end Geforce 4.
Så der er noget at leve op til for NV30... tvivler på den kan, men håber det!
Du må nødig misforstå mig; jeg er fuldsstændig enig med dig i at Radeon 9700 PRO ER bedre end ti4600, i hvert fald i opløsninger over 1024x768 på et P4-system med anisotropisk filtrering og full screen antialiasien. X-bit Labs fandt dog nogle svagheder med Radeon 9700 PRO:
"But in lower resolutions, when the graphics card workload is rather low, it's the CPU that determines the overall system performance. And here we see that the system with NVIDIA GeForce4 Ti4600 outperforms the system with ATI RADEON 9700 PRO. The most disappointing situation takes place with AMD Athlon in games that use OpenGL: GeForce4 Ti4600 is much better here than RADEON 9700 PRO.
There can be only one inference: the OpenGL part of the ATI's driver is poorly optimized for Athlon XPs compared with the polished-off drivers from NVIDIA."
Så hvis man spiller Jedi Knight 2, RTCW og andre OpenGL spil og er ens skærm ikke i stand til at vise opløsninger over 1024x768 med acceptabel opdateringshastighed (dvs. min 82 Hz) er der slet ingen grund til købe Radeon 9700 PRO.
Du kunne ikke lige finde den bench jeg henviste til, men her kan du læse det: "It's getting worse: NVIDIA GeForce4 Ti4600 is faster than ATI RADEON 9700 PRO in all resolutions, except 1600x1200. If we compare it with what we had on the Pentium 4 platform, we will get another evidence of the poor optimization of the OpenGL part of ATI's driver for Athlon XP."
Jeg savner stadig en saglig argumentation for at The Inquirer er et amatør-site; jeg afventer spændt ;-)
0x503f6c06.odnxx2.adsl.tele.dk skrev Saturday den 16 November 2002 kl. 12:17: [ svar | nyeste ]
nvidia har fået så meget r** af ATI her :(
hvis nvidia kommer med et grafikkort idag, kommer ati med et bedre grafikkort imorgen.
Synes nu jeg har givet et sagligt argument :)
Men hva' skidt, kan jo godt prøve at forklare dig det igen :)
De skriver, at NV30 efterlader R9700PRO i støvet når det angår AA og AF.
Det viser tydeligt, at de ikke ved hvad de snakker om. De tror, at 128 tap er mere, end hvad Radeon 9700 PRO kan... det er det ikke. 128 tap er det samme som 16x AF med Trillinear Filtering.
Så den eneste forskel, er de 2x AA, hvilket jeg ikke vil betegne som at "efterlade Radeon 9700 PRO i støvet".
Udover det smækker de kun teoretiske numre på, hvilket de, så vidt jeg husker, ikke skriver er teoretisk.
Håber det er en god nok begrundelse ;)
I lavere resolutioner vil det være tåbeligt ikke at køre med AA. Så derfor finder jeg Xbits konklusioner meget irelevante på det punkt.
Uderover det bruger de forældede drivere til Radeon 9700 PRO.
Jeg må give The Inquirer ret, i hvert fald på den måde jeg læser det. Så vidt jeg ved er NVIDIA's anisotropiske filtrering bedre end ATI's, altså kvaliteten er bedre på NVIDIA's måde. Ulempen er bare at NVIDIA's AF er langt mere "beregningstungt", dvs. ydelsen faldt med NV25 (ekstremt meget med NV15 og NV20). ATI's AF yder bedre, men er altså ikke lige så godt. Hvis NV30 yder 30% bedre med AF og AA på maksimum en Radeon 9700 PRO med AA og AF på maksimum ("As for performance, the Nvidia NV30 card will be about 30 per cent faster than Radeon 9700 PRO in FSAA, Anisotropic filtering is set for maximum settings.") Det er da imponerende hvis det er rigtigt! Ved langt bedre billedkvalitet er NV30 stadig 30% hurtigere end Radeon 9700 PRO! Så er det da meget rigtigt at Radeon med "leaving ATI's methods in the dust".
Jeg synes nu ikke vi skal bruge mere tid på denne diskussion før på mandag hvor vi ved meget mere om NV30.
Forresten skriver EEtimes, at NV30 måske bliver det eneste grafikkort med DDRII i 2003! Hvis det er rigtigt bliver det svært for ATI at vælte NV30 af pinden.
BTW: Christian R Poulsen skrev: "Uderover det bruger de forældede drivere til Radeon 9700 PRO". Jeg ved ikke så meget om driverne til Radeon 9700 PRO, men THG brugte samme driver i artiklen om P4HT 3,06 GHz. Det skulle undre mig om X-bit Labs og Onkel Tom bruger forældede drivere i deres test.
30% er lidt i forhold til de godt 200% hurtigere Radeon 9700 PRO er end G4 Ti4600 med alt AA og AF slået til.
Jeg tror vi forstå det på 2 forskellige måder. Du forstår det somom NV30 med AA og AF slået til, er hurtigere end et R9700 hvor intet er slået til.
Der forstår jeg det somom de begge har det slået til.
ATi's AF er bedre end nVidia's. Det er blevet påvist flere gange på screenshots.
ATi er bare så smart, at lade være med at lægge AF på noget, som man ikke kan se.
Nej, du misforstår mig (igen). Jeg forstår det sådan: Både NV30 og radeon 9700 PRO har AF og AA slået til, begge kort på det maksimale de understøtter. DVS NV30 benytter 128 tap, mens Radeon kun benytter 64 tap. På trods af det er NV30 30 % hurtigere.
Desuden vil jeg gerne se de screenshots du hentyder til! Radeon 8500 var elendig til AF, mens Radeon 9700 PRO er bedre, men slet ikke lige så godt som gefoce4 ti-serien. Dette skriver X-bit Labs:
"The situation is aggravated: MIP-levels move closer to the observer and both RADEON solutions (red, Radeon 9700 PRO og Radeon 8500) show poor filtering quality while Ti4600 still provides the same quality at any angles of inclination."
Jeg vil gerne komme med flere eksempler, men ikke før du komme med nogle som modbeviser mine.
Rune skrev Sunday den 17 November 2002 kl. 15:43: [ svar | nyeste ]
Meget tyder nu alligevel på, at NV30 vil komme til at hedde "GeForce FX". Dette er måske også et navn, der hentyder til, at NV30 består af både Nvidia (GeForce) og 3dFX (FX) teknologi ("GeForce 3dfx" ville vel lyde for fjollet :-). Læs mere her:
Jeg vil lige advare jer: i artiklen fra warp2search linkes til pdf-dokumenter på NVIDIA's hjemme side hvor Geforce FX skulle stå opført. Jeg ledte i længere tid, men fandt så ud af (efter at have læst en update) at NVIDIA har fjernet beviserne for at Geforce FX bliver navnet på NV30. Heldigvis har "MarkFox" (forfatteren bag artiklen" taget screenshots, men var der nogle af jer som nåede at se dokumenterne på NVIDIA's hjemmeside?
Hvor ofte spiller du spil i den vinkel?
Aldrig.
Så det går vist ligeop, når Radeon 9700 er pænere i normal vinkel.
Og når man så får en meget bedre ydelse, er ATi's af nVidia's overlegen.
At Xbit så åbenbart synes det modsatte, må jo så tyde på, at de elsker at spille spil i den vinkel...
Nope, du tager fejl. Radeon benytter også 128 tap, da det er det samme som 16x AF med Trillinear filtering.
Derfor finder jeg stadigvæk 30% skuffende.
Jeg afventer stadig screenshots der beviser din påstand om at ATI's AF er pænere end NVIDIA's, men du har måske svært ved at finde sådanne? 16xAF med trilineær filtrering? Er det ikke de samme som at tage 4xAA med 2xAA? Du vælger netop anisotropisk filtrering frem for trilineær filtrering, da AF tilbyder bedre billedkvalitet. Vi må snart have nogle link's på bordet, med mindre du selv har indgående erfaring med 128 tap AF kan jeg ikke tage dine ord for gode varer, hvorimod Inquirer kan betragtes som pålidelig kilde.
Hmm, min egen subjektive holding til de screenshots er at gf4 viser et mere klart og skarpt billed, men forskellen er lille og det er jo smag og behag. Jeg må give dig ret i det med 128 tap Anisotropisk filtrering. Tidligere var ATI 16x AF = 64 tap (da man kørte det udfra bilineær), men i dag har man endelig givet ATI ejere muligheden for AF udfra trilineær filtrering, og dermed 16x8tap; altså 128 tap. Det må du undkylde Christian
Jeg tror ikke, at vi er så uenige når det kommer til følgende spørgsmål: "hvilken AF-løsning vil du helst have til nutidens grafikkort (r300 og NV25)?" Jeg vil klart foretrække ATI's løsning pga det lille performance hit, og så selvfølgelig i Quality-mode hvor kvaliteten næsten er på højde med NV25's AF.
Men til spørgsmålet hvilken AF-løsning vil du helst have til fremtidens grafikkort (r350 og NV30)?" Her vil jeg svarer NVIDIA's løsning. Båndbredden på 48 GB/s giver mulighed for 64/128 tap anisotropisk filtrering i høje opløsninger uden det vilde performances hit. Og så kan man lige så godt vælge den pæneste og bedste løsning: NVIDIA's. Hvis det viser sig at ATI forbedre AF ved lanceringen af R350, kan den løsning vise sig at være den bedste. Det må tiden vise.
Jeg er enig med dig i, at en AF som filtrerer alle flader lige meget vil være det bedste, hvis der var 0% performance hit. Men det tror jeg ikke på, at der nogensinde bliver.
For samtidig med, at grafikkort får mere båndbredde stiger kravende fra spillene også.
Derfor vil jeg stadig fortrække en ATi løsning fremfor en nVidia løsning, hvis man går ud fra, at spillenes krav følges af med grafikkortenes krafter.
Men som du siger, så må tiden vise det.
Rune skrev Monday den 18 November 2002 kl. 12:48: [ svar | nyeste ]
Endnu en relativt ligegyldig og amatøragtig film er blevet postet på Nvidia's "Are You Ready"-side, hent den her:
Rune skrev Monday den 18 November 2002 kl. 14:22: [ svar | nyeste ]
Comdex åbner kl. 10:30 og er vel ca. 8 timer bag dansk tid, så skal vi gætte på, at NV30 muligvis introduceres en gang i aften dansk tid. Her kan du læse mere om Comdex:
Jeg dyrker strømindtaget....det er det samme som på mit voodoo5, bare placeret på en lidt anden måde. 3dfx længe leve.
Men ellers ligner kortet umiddelbart meget Geforce 4Ti 4400/4600. Men med en orden på komponenterne som på et Voodookort. Intet hul i midten!!.....og kan det passe, at der er to blæser-udtag standard!! Udssendesmæssigt, kan man godt se at 3dfx har haft en finger med!! Synes nu at den analoge monitor-udgang ser lidt sær ud...ihvertfald meget flad, i forhold til hvad jeg ellers har set.
Så fik vi endelig vores specs. for NV30, eller Geforce FX som barnet kom til at hedde. Vores lange diskussion omkring anisotropisk filtrering virker lidt overflødig nu. Dette skriver Anandtech:
"On the topic of texture filtering, NVIDIA finally offers a non-purists anisotropic (and trilinear) filtering algorithm. This driver selectable option will enable users to choose from an accurate filtering algorithm (similar to what the GeForce4 currently has) or a slightly less accurate but very high performance algorithm (similar to what the Radeon 9700 Pro uses). The end result is that the performance hit incurred when enabling anisotropic filtering or even trilinear filtering when in this "performance" mode is considerably less. NVIDIA claims that their anisotropic filtering algorithm is more precise than ATI's, so the GeForce FX's anisotropic filtering should look just as good if not better than the Radeon 9700 Pro's. (min fremhævning, red.)
Anandtech skriver desuden hvordan båndbredden på 48 GB/s er "fremtryllet":
The first and most interesting of all of the new features is NVIDIA's color compression engine; the color compression engine sits between the rendering pipeline and the memory controller and compresses everything that comes out of the rendering pipeline before it is sent to memory. The lossless compression algorithm can obtain up to a 4:1 compression ratio which explains where NVIDIA gets their 48GB/s of memory bandwidth from. Remember that the 500MHz DDR2 memory on the GeForce FX provides 16GB/s of bandwidth on the 128-bit memory bus, but multiply that by 4 and you'll get the 48GB/s of memory bandwidth NVIDIA is claiming.
Stercus skrev Monday den 18 November 2002 kl. 23:01: [ svar | nyeste ]
Christian angående det med driverne (jeg var den uden et ordentligt navn (troede anonym virkede på en anden måde)), så snakkede jeg med MrSlayer fra retel.dk og han havde ikke hørt at det skulle være rettet. Hvis du tænker på retel.dk's pålidelighed, så er han nok en af de mest pålidelige - du finder ikke engang antydninger af at han prøver at tækkes firmaer. Derudover har nVidia ikke haft betydelige driverfejl de sidste par år, så vidt jeg kan huske. Så hvis det viser sig at nVidia's kort yder omkring ligeså godt som ATI's (hvilket jeg tvivler på) så har man stadig kun grund til at købe nVidia. nVidia giver jo samtidig lækre Linux drivere med i købet, som der heller ikke er fejl i. Følg lidt med i nVidia driverteam og du vil se at de er på et stade hvor ATI ønsker at komme. ATI skal dog have den ros at de køber udviklere så de kan komme op på det stade.
Jeg kan ik rigtigt høre noget om den der Glide-ting det skulle indeholde.... Er det den de kalder CineFX!!???????
Kunne være fedt at fyre UT af i 300Fps
0x50a12e16.arcnxx13.adsl-dhcp.tele.dk skrev Monday den 18 November 2002 kl. 23:46: [ svar | nyeste ]
Stercus -> Jeg tror ikke det er ATi som har lavet hø' i den, Codecreatures kan kun ta' op til 4xAA.
Jeg prøvede at køre det med 6xAA slået til i kontrolpanelet. Det gad den ikke, kom bare med en fejl.
Så tænkte jeg, at jeg ville slå det til i Codecreatures. Men nope, der stod 2x, 4x og Unrecognized (tror jeg). Det kan også godt passe, da jeg mener Codecreatures blevet lavet til nVidia kort, som jo kun tilbyder 4xAA.
s33m skrev Monday den 23 December 2002 kl. 01:53: [ svar | nyeste ]
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.