37
-
Mice #37 pöpec, kár hogy nem tom mi a folytatása az előadásnak :( -
Mice #36 4:18 milye van neki több? -
#35 Vagy UT engine 3 nem létezik? -
#34 Most ezt hogy kell érteni?Nem létezik real time?ÁÁÁÁ:) -
#33 A real time-ot felejtsd el... Ezt már a GeForce 3 óta tudjuk, hogy nem létezik... Carmack utólag be is vallotta, hogy a japcsi bemutató mögött keményen lerenderelt Doom 3 ingame movie ment...
-----------------------------------------
.:i2k:. = IMYke2000 - @ - 2004
----------------------------------------- -
John Wayne #31 Kicsit beleugatnék itt a vitába, nekem spec. nem volt még ATI kártyám, de a tesztoldalakon egymás mellé tűzött Nvidia-ATI képeken nem láttam minőségkülönbséget. Sőt, a teszterek se...
Persze nem Gef4MX-ről van szó.
Amúgy meg egy elég brutkó kis kártya lett az NV40, a TESZTEK ALAPJÁN le a kalappal. Kérdés persze, hogy mennyire zajos, és milyen táp kell hozzá a valságban, de szerintem ha bármelyikőnkhöz hozzádobnának egy ilyet, legyen bármekkora ATI fan, rögtön benyomná a gépbe, még az is lehet, hogy elrohanna tápot cserélni:).
Hosszú idő ez az első kártya, ami tényleg megmozgatta a fantáziám. -
akatos #29 Nekem úgy tűnik mintha MHz terén most helyetcserélne az NV meg ATI. -
#27 Mar nem azert, de annak fenyeben, hogy korabban a driverekkel es a benchmarkokkal mit jatszottak ezek a cegek az elso adatoknak hinni talan kicsit korai... Talan fel ev mulva erdemes lesz osszehasonlitani a ket gyarto most megjelent kartyait. Addigra a kulonbozo driver hibakat is kijavitjak, optimalizaljak, erette valnak a kartyak. -
#25 Mindenki azt vesz amit akar... Demokrácia van...
Főleg ha sok pénzed van... -
HUmanEmber41st #24 Majd akkor fikázzátok az nVidiát, amikor
már az Ati másfajta kapcsolókat épít a procijába,
és nem tranzisztorokat LOLOLOLOLOL
És írjanak bármit az Atiról vagy az nVidiáról
én akkor is Geforce-t veszek, még ha a paksi atomerőművet is kell rákötni. Csak azért is. -
#23 Na mind1... Majd 26.-án visszatérünk a támára... Akkor majd tisztábban lát mindenki... -
#22 Ja...És az is gáz szerintem, hogy izmos tápot javasolnak, és a teljes terheléshez, és órajelhez mind a 2 power csatit be kell dugni, sőt, sima Y elosztó nem is jó neki, hanem 2 különálló tápvezeték kell neki... HEHEHE... Ha csak ez volna a baja, és eltekinetenénk attól, hogy nem hasít annyira, mint amennyire beígérték, már akkor nem kéne. Tiszta cink..... -
#21 zzeb...... Gondolom az emberek túlnyomó többsége 1600*1200-ba nyomja a gamékat. Hehehe. Főleg maximális AA és AF mellett. LOL. Múgy ez is azt bizonyítja, hogy a megnövekedett mamóriasávszélesség, és gpu sebesség hatása érződik szinte csak. 1 generációnyi difi van a 2 kari között, de a beígért 4 szeres gyorsulás picit elmarad, pedig a marketingesek ezt ígérték. Bármennyire is fanoljátok, az idő bebizonyítja, hogy bukta lesz. -
#17 Utálom ezt a szót, de nekem: LOL
S azt is utálom, hogy az emberek azért járnak ide, a fórumba, hogy a másik mondanivalóját kiforgassák...
Sajnálom, hogy nem értesz (Te sem, mint a többiek). Te dolgod, te fájdalmad.
-----------------------------------------
.:i2k:. = IMYke2000 - @ - 2004
----------------------------------------- -
#15 Engem csak az idegesít, hogy ez az egész NVidia-cumó 120W-ot fogyaszt, qrva hangos és a beléimplentált "újdonságok" ellenére szart sem ér.
Ezeket a fícsöröket simán tudnia kellene kevesebb tranzisztorral (belegondoltatok, hogy még mindig tranzisztorok vannak a CPU-kban (is), immáron 40 éve?!) és halkabban!
-----------------------------------------
.:i2k:. = IMYke2000 - @ - 2004
----------------------------------------- -
#12 Már pedig - ilyen kártyák mellett! - igenis maximális Anti Aliasing és Anisotropic Filtering mellett kell játszani!
Remélem, van szerencséd egy olyan kártyához, mint nekem, ami mindezeket szépen tudja (ATi 9500 Pro rulez!)... Ha egyszer kipróbálod, soha a büdös életben nem akarsz nélkülük játszani egyetlen játékot sem (még a passziánsazt sem, hihihih)!
És nem vagyok hardcore gamer! De, ha van egy kártyám, ami tudja, akkor bizonyítson is! Nekem bizonyított. S tetszik amit tud.
Úristen, vajon mit fog tudni az X800-as????!!!!
-----------------------------------------
.:i2k:. = IMYke2000 - @ - 2004
----------------------------------------- -
#7 Jézusdom. már látom előre, mennyi ember fog bedőlni ennek a nyers erővel ellátott porszívónak és áramzabáló NVidia monstrumnak!
Emberek, ébresztő! 120 W-ot zabáló erőgéppel még jó, hogy van némi teljesítménytöbblet, de közben megsüketülsz mellette!!!
-----------------------------------------
.:i2k:. = IMYke2000 - @ - 2004
----------------------------------------- -
davos80 #3 Jó hogy aktiválták, mi járunk majd jól ezzel.Nem kell elsunnyogni a szalagbizbaszokat.
Mi ez a "leggagyibb" ?... -
#2 Ahogy az új GeForce 6800 Ultra első tesztjeit elolvastam, nem is biztos, hogy aktiválni kellett volna a maradék futószalagokat. Elég sok tesztet olvastam végig, de szerintem nem nagy durr. Kijavították a képminőséget, most már olyan, minr 9800XT. Sok tesztben közel azonos teljesítményt nyújt, mint az ATI, és csak néhány game volt gyorsabb az is csak kb 20%-al, és az is csak nagyobb felbontásban....Szóval szerintem buktázik az Nvidia.....Hja..És szerintem nem mindenkinek van 480W-os tápja a gépében...Esetleg a villanyszámlából nem vállalnak át??? :) -
Borg #1 Still not official..