5388
Avagy az NV3X...
Ha netán törlödne a hozzászólásod, csak csekkold ezt: #1940
  • NeoMaN
    #3151
    LOL B+ télleg....
    állat!
  • Laalee
    #3150
    a kép bal alsó sarkaéban az objektumoknak nincs árnyéka fxnél
  • NeoMaN
    #3149
    Írtam linket az 51.75-re, azért mondtam , prószálja akinek FX van.
    Monnyuk én az 1. és 3. kép között nem veszek észre különbséget, a 2. meg olyan, mintha nem lenne T&L.
  • Laalee
    #3148
    A legmeggyőzőbb képet kétségtelenül az ATI Radeon 9800 Pro-Catalyst 3.7 páros mutatja. Ezzel szemben a GeForce FX 5900 Ultra hivatalos 45.23-as, és a nem hivatalos - csak a szaksajtó munkatársai számára elérhető - 51.75-ös Detonatora sem tudott maradandót alkotni. Előbbinél hiányoznak az árnyékok, és néha hibás volt a megvilágítás is, míg utóbbinál ugyan előkerülnek az árnyékok, cserében viszont nincsenek sem megvilágítási textúrák, sem pedig általános antizotrópikus filter-optimalizáció.
  • Laalee
    #3147
    prohardveren van egy forditott cikk képekkel nagy vicc :D

    deto 45,23
    deto 51,75

    catalyst 3,7
  • NeoMaN
    #3146
    Azé kérdem.
    Monnyuk én fel nem teszem. Még mindig 41.09 van fent...
  • ollie
    #3145
    Azt olvastam, hogy itt is csalnak mint állat.
  • NeoMaN
    #3144
    Detonator 51.75:

    http://www.detonators.net/clickmanager/clickmanager.cgi?dl=15

    Írjátok má milyen?? :)
  • Inquisitor
    #3143
    "Átlagos júzer vesz egy FX-et,(ABIT,ASUS), látja mien szar az ATIhoz képest, azt mondja: B+ soha többet nem veszek Asus kártyát!!!"
    Azért amiket az Asus kavarni szokott "Magic" kártyáival ... ühüm. :(
  • Inquisitor
    #3142
    Nem keverted össze, állítólag az Asus és az MSI IS gyártja jó ideje MÁS "márkaneveknek" az ATI kártyákat. Csak most már MSI lesz hivatalosan, meg a pletyi szerint szeptember végén az Asus is bejelenti hivatalosan.
    Az elmúlt 2 hét után nem csodálnám ha MÁSOK is követnék a példát.
    (Creative meg már jó rég gyártja a saját neve alatt, de igen jól titkolják a saját oldalukon is! A 9800 pl. csak az ázsiai oldalon van kint ...)
  • Gerry
    #3141
    Igazad van!
  • ollie
    #3140
    Eh, barom vagyok. Összekevertem valakivel (Abit?)
  • Laalee
    #3139
    na ja őt a hw piac fizeti, az erőforrás igényes enginjei miatt :D
  • ollie
    #3138
    Na, pár hónapja már gyárt ATI-t is az ASUS.
  • Laalee
    #3137
    senki nem kényszeríti az asust hogy csak nvidia kártyát vegyen, az asus azért érul csak vidiát mert igy olcsobban kapja a chipeket, tehát szegény vásárlók miért veszik drágábban az asus cuccokat minta a c3dt...
  • NeoMaN
    #3136
    NA! Majd mingyá jön agy HL2 azt beszól, hogy gagyi gamek és gagyi enginek piacra dobásából...
  • Gerry
    #3135
    Carmack-nek Ferrariai vannak, jópár darab, és neki legjobb tudomásom szerint nem gagyi kártyák eladásából folyt be a pénz a verdákra...
  • ollie
    #3134
    Mert valamiből be kell jönnie az ügyvezető Proschéje árának ;D
  • NeoMaN
    #3133
    Presztizsből? Vagy a (nem)fejlesztés kötségeit akarja megfizettetni a vásárlókkal?
    Az egészből csak az Asust,Abit-ot stbeket sajnálom. Nekik nagyon gáz.
    Átlagos júzer vesz egy FX-et,(ABIT,ASUS), látja mien szar az ATIhoz képest, azt mondja: B+ soha többet nem veszek Asus kártyát!!
  • NeoMaN
    #3132
    Azt mingyá gondoltam, hogy nvidiának semmi köze a dx9-:)
    Viszont az MS+ATI kooperációról nem tudtam, de mint írtam ez jött le nekem az egészből. Akkor csak igaz.
    X-BOX-ban NV3x Geforce van, 250MHZ-s chippel.
    Órajelben akkor kb. Gef4 szinten van, de a gef4 asszem nv25 vagy mi?
    Mind1, lényeg, hogy nvidia beszopott, mikrofos mindenkit be tud szopatni, ATI jól járt.
    DE AKKOR AZ NVIDIA MIÉRT NEM ÁRULJA A SZAR KÁRTYÁIT 10000-ÉRT??
  • Gerry
    #3131
    Akkora kb a külömbség mint Radeon 9700 és 9800 között, vagy talán picit nagyobb.
  • Gerry
    #3130
    A gépedet nem az M$ gyártja/gyárttatja, míg az X-Boxot és a tartozékait igen...
  • Borg
    #3129
    Ebben csak egyedül ott tévedsz, hogy az nvidiának semmi köze nincs a DX9 szabvány kifejlesztéséhez:)

    Ugyanis a DX9et a M$ az ATIval karöltve fejlesztette ki, minthogy (MINDMÁIG UGYE) egyetlen értelmes DX9 kártyája nincs az nVidiának.

    Pont hogy ott a bibi, hogy az nVidia saját útra akar térni egy csomú eljárással, pl ugye részleges precizitás, meg egyéb algoritmusok amit más kártyák nem támogatnak. Az nvidia az egyedüli, aki minden eszközével azon van, hogy aláássa a DX9et mint szabványt, ugye nem véletlenül, mert az ő kártyái nemhogy nem elégitik ki (HDM), de még kegyetlenül lassúak is ilyen módban.

    Szal már csak azért is lesz az XBOX2ben (ugye) ATI chip, várható lépés volt az M$ részéről, hogy a DX9 miatt elfordul az nVidiától...



    Amúgy az XBOXban szimplán geforce4 van. Hogy órajelben mennyi azt nemtom, de mind1 is. Tudásában ugyanaz.
    Emlitenem sem kell ugye, hogy a geforce4 meg lényegében egyenlő a geforce3al, ha nem tudná valaki... minimális csiszolásokon esett át, ugyanaz a generáció a 2 kártya.
  • Laalee
    #3128
    én is veszek vindozt officet satöbbit adhatnák nekem is olcsobban a gépet :D
  • Gerry
    #3127
    X-Box-hoz a tartozékok és a játékok drágák, meg az előfizetés az X-Box Live!-ra... Nem magában az eszközben van a biznisz, hiszen az alap gép eladása magában veszteséges, a zseton másból folyik beaz MS-nek!
  • ollie
    #3126
    Kitaláltam!
    Már a legelső GF is mindent tudott (talán DX10-et is), azóta az NV csak a driverekkel variál, meg időnként a nyákra forraszt néhány fake tranzisztort! ;DD
  • ollie
    #3125
    Azért röhejes, hogy az XBOX maga majdnem annyiba kerül, mint egy Ti4400 :D
  • ollie
    #3124
    Nem is. Uyganaz van az XBOX-ban is, csak driverből le van tíltva a DX9. Az FX-ben meg a pipeline-ok fele. :DDDD
  • Gerry
    #3123
    Tudtommal kb GF4Ti4400-körül van a tudása, itt-ott többet tud, itt-ott kevesebbet.
  • ollie
    #3122
    Valami módosított cucc nem? Olvastam róla, de nem emléxem mivel variáltak benne.
  • NeoMaN
    #3121
    Igen, a Gef4 az X-box-os chip butított verziója.
    MEGVAN!!! B+!!
    Akkor az FX van az X-box-ban, és csak DX8.1-es. Beletettek egy kis DX9-et és kiadták a PC piacra FX néven!!! LOL LOL LOL
  • Laalee
    #3120
    geforce3 nál jobb chip van benne, talán a g4 et is lenyomja.
  • ollie
    #3119
    Tud egyáltalán DX8-at az XBOX?
  • NeoMaN
    #3118
    Na ok, csak az a kérdés, hogy ugyi mivel a mikrofos+nvidia ilyen jól összedolgozott (X-BOX), hogy a picsába nyúlhattak így mellé?? Gondolom MINDENT tudtak a DX9-ről jóval elöbb, mint bárki más. Vagy a mikrofos csak a DX8-at használja az X-BOXban, és az nvidiát nem informálta a DX9 specifikációiról időben??
    Ennek nagyon összeesküvés elmélet szaga van (ATI+mikrofos)
  • Borg
    #3117
    A baj inkább az, hogy aki picit is érti, hogy hogyan működnek a játékok, APIk, DX9, nameg a kártyák, az ezt már az első hardOCPs doom]|[ tesztnél megmondta.

    Csak ugye egykét kivétel volt, pl itt is, akik csak hitetlenkedtek:)

    Egész egyszerűen az FX VPUja más felépitésű, amivel standard DX9 módban (tehát 24bitFP szigoruan - vagy 32bit esetleg,de ezt csak az FX tudja, és ebben a leglassabb is egyben) nem tud elegendő teljesitményt elérni.

    Az FXnek olyan hibrid felépitése van, ami részleges precizitásnál jó gyors (16bitFP), csak éppen jelentősen romlik a képminőség.
    Ugyanez a helyzet fixpontos (tehát Pixel shader 1.0-1.4) kód esetén is, ilyen módban jóval több használható regiszter van, és ennek megfelelően gyorsabb is sokkal. Csakhát ez már max DX8 kód, messze nem DX9 amire kitalálták a kártyát ugye...


    És mivel a standard DX9 minimálisan 24bitFP precizitást ir elő, ebben a módban az FXek rendre botrányosan teljesitenek.
  • Laalee
    #3116
    egyszerű pár bit es programkód... sajnos csak titkosítva fértem hozzá, de ezt a sort kell dekoódolni, hogy jó legyen a sebeség: buy ati.
  • Gerry
    #3115
    Biztos vagyok benne! (Csak kérdés, hogy melyik évszázadban derül majd ki, hogy mi is pontosan a driverből hiányzó sor...)

    Na, jóvan, eléggé kiökörködtem magam, részemről a poénkosás befejezve.
  • ollie
    #3114
    Hoppá!
    Lehet, hogy Zsenyka még majd visszavásárolja az FX5900-et?
  • Gerry
    #3113
    Pedig úgy néz ki az a helyzet, nVidiás cimboráim mondták, hogy rájöttek, hogy tényleg hiányzik egy sor a NV4DISP.DLL-ből, és ha azt beírják, akkor 3x-os sebességnövekedés lesz elérhető, 3DMark03-ban 5x-ös pontok lesznek, és a HL2 1600*1200*32-es felbontásban kerek 100FPS-el fog menni quality beállítások és maximális AA+AF mellett.

    Egyetlen probléma, hogy még nem tudják, hogy mit is kéne ennek a sornak pontosan tartalmaznia, de már ráálltak az ügyre!
  • Laalee
    #3112
    hardwired
    A Bonusweb-es lánykák vették a bátorságot, hogy megkérdezzék a nagyembert, hogy is állunk a a Geforce FX-szel a Doom 3 esetében, az aktuális botrányos HL2 tesztek fényében, és mit várhatunk az elkövetkezendő DX9 játékok esetében, a válasz:
    Sajna úgy néz ki, hogy ez a probléma a legtöbb DX9 játéknál elő fog jönni. A Doom-nak van egy beállítása, amely a GF-FX alacsonyabb precízitású renderelését használja, de ha a standard fragment beállításokat használja (mint az ATI), akkor sokkal lassabb. Az alacsony precízitás a Doom esetében nem igazán számít, de a jővőben megjelenő, kifejezetten DX9-re dizájnolt játékok esetében már nem egy elfogadható megoldás.