37
  • Mice
    #37
    pöpec, kár hogy nem tom mi a folytatása az előadásnak :(
  • Mice
    #36
    4:18 milye van neki több?
  • janos666 #35
    Vagy UT engine 3 nem létezik?
  • deep
    #34
    Most ezt hogy kell érteni?Nem létezik real time?ÁÁÁÁ:)
  • IMYke2.0.0.0
    #33
    A real time-ot felejtsd el... Ezt már a GeForce 3 óta tudjuk, hogy nem létezik... Carmack utólag be is vallotta, hogy a japcsi bemutató mögött keményen lerenderelt Doom 3 ingame movie ment...

    -----------------------------------------
    .:i2k:. = IMYke2000 - @ - 2004
    -----------------------------------------
  • John Wayne #31
    Kicsit beleugatnék itt a vitába, nekem spec. nem volt még ATI kártyám, de a tesztoldalakon egymás mellé tűzött Nvidia-ATI képeken nem láttam minőségkülönbséget. Sőt, a teszterek se...
    Persze nem Gef4MX-ről van szó.
    Amúgy meg egy elég brutkó kis kártya lett az NV40, a TESZTEK ALAPJÁN le a kalappal. Kérdés persze, hogy mennyire zajos, és milyen táp kell hozzá a valságban, de szerintem ha bármelyikőnkhöz hozzádobnának egy ilyet, legyen bármekkora ATI fan, rögtön benyomná a gépbe, még az is lehet, hogy elrohanna tápot cserélni:).
    Hosszú idő ez az első kártya, ami tényleg megmozgatta a fantáziám.
  • akatos
    #29
    Nekem úgy tűnik mintha MHz terén most helyetcserélne az NV meg ATI.
  • valamit
    #27
    Mar nem azert, de annak fenyeben, hogy korabban a driverekkel es a benchmarkokkal mit jatszottak ezek a cegek az elso adatoknak hinni talan kicsit korai... Talan fel ev mulva erdemes lesz osszehasonlitani a ket gyarto most megjelent kartyait. Addigra a kulonbozo driver hibakat is kijavitjak, optimalizaljak, erette valnak a kartyak.
  • Gresi
    #25
    Mindenki azt vesz amit akar... Demokrácia van...
    Főleg ha sok pénzed van...
  • HUmanEmber41st
    #24
    Majd akkor fikázzátok az nVidiát, amikor
    már az Ati másfajta kapcsolókat épít a procijába,
    és nem tranzisztorokat LOLOLOLOLOL
    És írjanak bármit az Atiról vagy az nVidiáról
    én akkor is Geforce-t veszek, még ha a paksi atomerőművet is kell rákötni. Csak azért is.
  • Gresi
    #23
    Na mind1... Majd 26.-án visszatérünk a támára... Akkor majd tisztábban lát mindenki...
  • Gresi
    #22
    Ja...És az is gáz szerintem, hogy izmos tápot javasolnak, és a teljes terheléshez, és órajelhez mind a 2 power csatit be kell dugni, sőt, sima Y elosztó nem is jó neki, hanem 2 különálló tápvezeték kell neki... HEHEHE... Ha csak ez volna a baja, és eltekinetenénk attól, hogy nem hasít annyira, mint amennyire beígérték, már akkor nem kéne. Tiszta cink.....
  • Gresi
    #21
    zzeb...... Gondolom az emberek túlnyomó többsége 1600*1200-ba nyomja a gamékat. Hehehe. Főleg maximális AA és AF mellett. LOL. Múgy ez is azt bizonyítja, hogy a megnövekedett mamóriasávszélesség, és gpu sebesség hatása érződik szinte csak. 1 generációnyi difi van a 2 kari között, de a beígért 4 szeres gyorsulás picit elmarad, pedig a marketingesek ezt ígérték. Bármennyire is fanoljátok, az idő bebizonyítja, hogy bukta lesz.
  • IMYke2.0.0.0
    #17
    Utálom ezt a szót, de nekem: LOL
    S azt is utálom, hogy az emberek azért járnak ide, a fórumba, hogy a másik mondanivalóját kiforgassák...
    Sajnálom, hogy nem értesz (Te sem, mint a többiek). Te dolgod, te fájdalmad.

    -----------------------------------------
    .:i2k:. = IMYke2000 - @ - 2004
    -----------------------------------------
  • IMYke2.0.0.0
    #15
    Engem csak az idegesít, hogy ez az egész NVidia-cumó 120W-ot fogyaszt, qrva hangos és a beléimplentált "újdonságok" ellenére szart sem ér.
    Ezeket a fícsöröket simán tudnia kellene kevesebb tranzisztorral (belegondoltatok, hogy még mindig tranzisztorok vannak a CPU-kban (is), immáron 40 éve?!) és halkabban!

    -----------------------------------------
    .:i2k:. = IMYke2000 - @ - 2004
    -----------------------------------------
  • IMYke2.0.0.0
    #12
    Már pedig - ilyen kártyák mellett! - igenis maximális Anti Aliasing és Anisotropic Filtering mellett kell játszani!
    Remélem, van szerencséd egy olyan kártyához, mint nekem, ami mindezeket szépen tudja (ATi 9500 Pro rulez!)... Ha egyszer kipróbálod, soha a büdös életben nem akarsz nélkülük játszani egyetlen játékot sem (még a passziánsazt sem, hihihih)!
    És nem vagyok hardcore gamer! De, ha van egy kártyám, ami tudja, akkor bizonyítson is! Nekem bizonyított. S tetszik amit tud.
    Úristen, vajon mit fog tudni az X800-as????!!!!

    -----------------------------------------
    .:i2k:. = IMYke2000 - @ - 2004
    -----------------------------------------
  • IMYke2.0.0.0
    #7
    Jézusdom. már látom előre, mennyi ember fog bedőlni ennek a nyers erővel ellátott porszívónak és áramzabáló NVidia monstrumnak!
    Emberek, ébresztő! 120 W-ot zabáló erőgéppel még jó, hogy van némi teljesítménytöbblet, de közben megsüketülsz mellette!!!

    -----------------------------------------
    .:i2k:. = IMYke2000 - @ - 2004
    -----------------------------------------
  • davos80
    #3
    Jó hogy aktiválták, mi járunk majd jól ezzel.Nem kell elsunnyogni a szalagbizbaszokat.

    Mi ez a "leggagyibb" ?...
  • Gresi
    #2
    Ahogy az új GeForce 6800 Ultra első tesztjeit elolvastam, nem is biztos, hogy aktiválni kellett volna a maradék futószalagokat. Elég sok tesztet olvastam végig, de szerintem nem nagy durr. Kijavították a képminőséget, most már olyan, minr 9800XT. Sok tesztben közel azonos teljesítményt nyújt, mint az ATI, és csak néhány game volt gyorsabb az is csak kb 20%-al, és az is csak nagyobb felbontásban....Szóval szerintem buktázik az Nvidia.....Hja..És szerintem nem mindenkinek van 480W-os tápja a gépében...Esetleg a villanyszámlából nem vállalnak át??? :)
  • Borg
    #1
    Still not official..