121
  • Bat
    #121
    Bocs, hogy ennyit rizsázok, ehhez még annyit:
    Amikor NV-n gyárt az embert fragmentprogramot, akkor választhat, hogy megadja a FP pontosságot, vagy nem.
    A leírások szerint a FP32 teljesítményvisszaesést jelent a FP16hoz képest, ezért ha kisebb progiról van szó érdemesebb FP16t használni, komplexnél viszont a pontosság megőrzése érdekében FP32-t. ATI-nál csupán FP24 van, ez a mázlija mert az köztes a kettő között pontosságban. Tehát ahol NVnél már 32-t kéne használni ott lehet még elég a 24 ATInál.
    De PL GL-ben csak eddig csak speciálisan NV kártyára írt shaderekben lehetett előírni a pontosságot!!! Ha szabvány shadert írsz, abban nincs specifikálva, hogy melyiket kell a drivernek használnia...
  • Bat
    #120
    Precision is the biggie, with ATI behind NVIDIA now (even with their R4xx VPUs) in terms of floating point accuracy. DX9.0c now asks for FP32 as 'full precision' and anything below that is partial. ATI haven't upgraded that aspect of their new chips and thus can still only offer FP24, which means when later DX9 games appear it's them who will be getting drubbed for banding and lesser frame quality.
  • Bat
    #119
    Íme amit NV használ:
    Arithmetic operations can be performed at three different
    precisions. 32-bit floating point precision (fp32) uses the IEEE
    single-precision standard with a sign bit, 8 exponent bits, and 23
    mantissa bits. 16-bit floating-point precision (fp16) uses a similar
    floating-point representation, but with 5 exponent bits and 10
    mantissa bits. Additionally, many arithmetic operations can also be
    carried out at 12-bit fixed point precision (fx12), where values in
    the range [-2,+2) are represented as signed values with 10 fraction
    bits.
  • Bat
    #118
    Egyébként külföldi fórumokon is rákereshetsz, érdemesebb, mert a magyarok nagyon arrogánsak meg szakbarbárok :)
  • Bat
    #117
    Ennek még jól nézz utánna, ugyanis egész pontosan az volt említve, hogy FP24-et használ nem FP32-t mint a NV. Ez mondat világosan azt jelenti, hogy 24 bites az egész szám mantisszával exponensel előjellel együtt. Továbbá a 32bites számok az "igazi" lebegőpontosak szabvány szerint. Sőt... Ők még a pontatlanok a 64bites doublehoz képest ugye.
    Másrészt az nem 24+8 mer ott még nincs előjel :p
  • PyRex
    #114
    Az a szánalmas, hogy ezzel megtévsztenek több ezer embert, akik elhiszik, hogy AF / AA alkalmazásával gyorsult a game, pedig valójában SEMMI SEM VÁLTOZOTT, hanem csak kikapcsolt állapotba került a 2 funkció. LOL, ez asztán a megoldás 2004-ben!!! Ha valami nem megy, ne használd. Csak akkor miért kerülnek a csúcs nv kártyák 100+ ezer Ft-ba?? EZÉRT A SUPPORTÉRT??? Szánalmas.

    Mellesleg még külföldi HW oldalak is megették azt, hogy valóban gyorult az alkalmazás, sokaknak nem tűnt fel (Mondjuk 1600x1200-ban nem is annyira feltünő az AA hiánya, de akkor is csalás!), hogy kikapcsolt AA / AF beállításokkal játszanak...
  • PyRex
    #113
    Engem nem az eljárás érdekel, hanem a képminőség. Az pedig - ha fejreállsz - akkor is az ATi kártyáin a jobb.
  • PyRex
    #112
    LOL! :)
  • rp
    #111
    falramászok attól, hogy minden cikk első bekezdését minimum 2szer leírjátok egymás után.
    falramászok attól, hogy minden cikk első bekezdését minimum 2szer leírjátok egymás után.
  • RpPRO
    #105
    Szivacs, szanalmas vagy, nem ereszkedem le a primitiv stilusodhoz.

    Colourless dolgozik a vegso wrapper-en, amiben lesz depth of field es szebb arcvilagitas. A problema ott van, h. a x800 singlepass-ban csinal meg tobb shadert, amire az elozo generacio nem kepes, ezert most irja at multipassra a shaderek nagy reszet, nyilvan a 3Dc-t es egyeb uj effekteket max. emulalni tudja.

    Szivacs, altasd csak magad, eleg szivacs vagy mar igy is, a hozzaszolasaid teljes dilettanizmusra vallnak :) Ja, Dawn mond neked valamit? :)
  • RpPRO
    #102
    JobieZ-t es 9800XT-t egy kis szigetre raknam, beszeljek meg a dolgaikat :))
    Csak ismetelni tudom magam, az a szornyu amikor egy 64 bites amd3200 sem tud kiszolgalni ket ilyen kareszt.
    Amugy faraszto ez a meddo vita, ugyse gyoz meg senkit a masik :)
  • arty
    #100
    ugyanazert amiert anno a gf3 szintje lett a dx8 minimum, es az ATI-t ez kiutotte (az o megoldasa nem minosult dx8 hwnek)

    na? paranoia rulez ;)
  • arty
    #99
    24 bitet ir elo a DX9 (a-b-c meg amit csak akarsz) minimalisan :) ebben nincs valtozas es a 9es szeriaban nem is lesz.

    AF kulonbsegerol felesleges vitazni, leven megoszlanak a velemenyek, h melyik, mikor jobb :) az eddigi minosegietlen nvidia-AA viszont markansabb, annak kulonbseget minden scrshoton be lehetett latni _eddig_ ... ebben vegre javitott egy jonagyot az nv. sztem ne a multba tekintgessunk ...

    ---------------------------------------------------------

    a kovetkezok nem ROBB-nak, o legalabb ervel:

    rohejes tudjatok, h bejonnek ide fanok es sertegetik egymast ervek nelkul ... mind2 oldalrol ... ennel ertelmetlenebb dolog senkinek nem jut eszebe ? inkabb jatszatok, amig meg megy valami a jelenlegi kartyainkon! ;)
  • Bat
    #98
    Az NVIDIA honlapján a developer résznél megnézheted, de csak videók vannak azthiszem, és a leírás, hogy mit látsz benne.
    Elsőre (amíg nem hallottuk a leírást) minket sem nyűgöztek le a puszta látványok, de elolvasva már jóval meggyőzőbb.
    A flowcontrol demó egy teáskanna forogva, egyre több omnival megvilágítva.
    A hullámzó víz és a gömb displacement mapping demó. A víznél immár ha a partot nézed bizony a hullám magassága is változik hála a disp-nek, nemcsak shadelve van. A 2d-s demóban a 32bites float pixelformátumot reklámozzák (blendel együtt, amit eddig sem az ATI sem az NV nem tudott), ami professzionális képfeldolgozást enged meg nagy számítási pontossággal. A benzinkutat annyira nem olvastam el, az meg a több rendertarget ha minden igaz.
  • janos666 #96
    Csak ne mennének hibából ilyen gyorsan ezek a "béta szarok".
  • Borg
    #88
    Nem csak anno, hanem ma is kielégíti. Mivel még egyetlen új DX szabvány sem jött ki azóta.
  • janos666 #87
    Most pedig jöhetnek az összeesküvéselméletek, hogy miért is elég a DX9-be 24 bit.
  • RpPRO
    #86
    Remelem, nem mondok hulyeseget, de ugy emlekszem, h a 24 bites lebegopontos szamolas anno tokeletesen kielegitette a MS dx9-es szabvanyat. Az nvidia ugy dontott, h nem koveti ezt a szabvanyt es a 16 v 32 bitest valasztotta. 32 bitben nagyon lassu volt, 16 bitben gyors, de pontatlanabb, szoval nehez volt osszehasonlitani a kartyakat.
  • janos666 #85
    De még az lenne tényleg érdekes ha low-k-t nyomnának az NV42-be és ugyanezt a hűtőt raknák mellé.
  • Bandee
    #84
    ez nagy igazság. ezé van most is fx5900xt-m. lehet fos kártya de 55Eért megérte, és 9600xt-nek emsok köze van, 9800pro az meg +15E, szal mind1. jah. és 1 apró dolog van amit látszólag sokan Lfelejtenek! fp24 vs fp16+fp32. ha nem érted hagyjuk. emlékezz vissza anno mennyit számított színmélység játékoknál amikor még nem 2xgb volt a sávszélesség! szted számolásánál (shader nem számit h 24bit vagy 32bites precizitással számol?) no mind1. aki érti akkor engem is ért, aki nem az ne anyázzon. amúgy jobb az x800 architektúra mert : low-k,.13 . ennyi. kisebb hűtés -> magasabb órajel, ezé gyorsabb scak. de nekem 100m mostanában úgysem veszek :O
  • PyRex
    #83
    Te miről beszélsz? Mindenki tudja, hogy az ATi fényévekkel szebb képet produkál, pláne anizotropikus szűréssel... Ez nem találgatás, ez tény, ezt még a looser NV fanok is elismerik...
  • PyRex
    #82
    NV40-es pathc? Az első már kijött: ez az amiben a driver figyeli, hogyha farcry.exe-t indítasz el, akkor kikapcsolja az AA-t, AF-et... LOL?? (Nem, ez nem LOL, hanem szánalmas!) Ennyit az optimalizált driverekről by nVidia!
  • Bat
    #81
    Kicsit off de azért nem teljesen:
    Úgy halottam, ATI-nál 24bites a lebegőpontos számolás. NV-dia felajánlja mind a 32 mind a 16-ot is. Jegyezzük meg, hogy 24 bites lebegőpontos számok nincsenek (szoftver oldalról), vagyis az ATI "butit" a ti szavaitokkal érve. Eccóval ha én feltöltök egy rakat FP adat, végzek rajta félmilkó mjűvelet, visszaolvasom, ATI-nál _NEM_ az elvártat kapom. Akkor ez is csalás?
    "GF6800 semmi újat nem mutatott fel"
    Igen, például nem láttunk benne displacement mappingot.(???) (Amit ugye az ATI talált ki? -kuncog-) Nincs benne PS3 sem. (???) Ami egy rakat szar mer semmire nem jó tulajképpen??? -kuncog- (Tessék megnézni az NV demót a flowcontrol-ról, egy menetben szinte végtelen számú fényforrást lehet renderelni egy polygonra, míg flowcontrol nélküli PS-ben nem)
    Amúgy télleg vegyen már vissza az NVIDIA mer lol ez a teljesítményfelvétel meg hűtés. Itt egy jó vidkályha végre, de ez már szó szerint kályha :(
  • Gabest
    #64
    +s/z mer' 3. személy
  • Cat #63
    rule = uralkodás, uralom
  • janos666 #62
    És végre árulja már el valaki mi/ki az a Rulez!
  • janos666 #61
    De nem bírom az ijen sírást. Azt hiszitek ilyenkor ti szánjátok meg a tudatlanokat. Szomorú, én csak röhögök ha ilyen hozzászólást látok, de nem fogom mindíg elmagyarázni miért is hülyeség ez.
  • [HUN]PAStheLoD
    #58
    ohh , majd ha lesz akkora hűtő amibe beférek gépestül veszek 1 ilyen kártyát is .. mer azér nyárra kész öngyilkosság lehet :]
  • RpPRO
    #57
    Ok, ha kikapcsoljak a hibak dolgokat, de konyorgom, akkor NE irjak a kartyat tesztelo internetes oldalak, h 1600x1200-ben 4aa 16af mellett igy meg ugy megy a 6800as kartya, mert AZ HAZUGSAG es megtevesztenek vele millionyi olvasot. Az pedig, h a Far Cry eseteben teszi ezt az nvidia (hogy csal), az nem veletlen, hiszen egy igen shader dus jatekrol van szo, ami jol mutatja az elkovetkezendo dx9 jatekok varhato sebesseget. Te olvastal barmit errol, h nvidia elore szolt? Te sem? :)
  • PyRex
    #53
    Nézz csak meg egy FarCry-t DX9 módban egy Radeon 9800PRO-n (vagy XT-n), meg egy GeForce 5950-en (a 6800 alatt az a legjobb, ha minden igaz).

    Nem elég, hogy a Radeon nagyságrendekkel szebb képminőséget produkál, de kb. azonos beállítások mellett 20%-kal gyorsabban is fut rajta a game. Ennyit erről. (Mellesleg pont a Far Cry-nál az X800 - GF6800 versenyét is természetesen bőven az ATi kártyája nyeri...)
  • PyRex
    #52
    Nanana, lehet, hogy az nVidiánál ez a szokás, hogy ha valami az adott geforce kártyákon adott beállítás mellet nem megy, akkor FELÜLBÍRÁLJÁK A USER DÖNTÉSÉT - KIKAPCSOLBNAK PÁR FUNKCIÓT - ÉS MÁRIS MEGY A JÁTÉK, SŐT, MÉG GYORSABB IS LESZ (A KIKAPCSOLT FEATURE MIATT UGYE). Nos, kb. HÁNYNOM kell ettől a hozzáállástól. Sajnos el kell, hogy keserítselek: az ATi akkor a saját drivereiben keresi a hibát, nem pedig a játék grafikus motorjában. És természetesen a drivereit optimalizálja, de nem butításokkal, meg exe figyeléssel...
  • PyRex
    #51
    Te miről beszélsz??? MUTASS MÁR EGY HÍRT, AMIBEN ARRÓL VAN SZÓ, HOGY AZ ATI RONTOTTA A KÉPMINŐSÉGET A SEBESSÉG NÖVELÉSE ÉRDEKÉBEN!
  • droland
    #50
    Az ATI driveriben is van EXE figyelés hasonlóan az NVIDIA driverében pusztán kompatibilitási okokból.

    Tételezzük fel, hogy egy adott játék, mondjuk a Quake3 1600x1200-ban 4x AA-val befagy XY ponton. Ekkor a következő driverben legyen az NVIDIA vagy ATI ezt a pontot úgy javítják ki, hogy mivel magát a játékot NEM ÍRHATJÁK újra, ezért egy megoldás maradt, figyeli, hogy fut e a QUAKE3, és mondjuk 1600x1200-ben nem engedi bekapcsolni a 4x AA-t, de ti vagytok olyan hülyék, hogy megint a rossz oldalról közelítitek meg azt a problémát, mivel felhasználók ugatnak a VIDEOkártya gyártónak, hogy ez a játék, meg az a játék, ilyenkor így szar, meg úgy szar. Két megolsá van részükről, EXE figyelés a megfelelő tulajdonság kikapcsolásával, ami okozza a hibát, vagy újraírni a játék grafikus motorját, mivel ez utóbbi nem lehetséges, ezért marad az előbbi megoldás...

    De ti ezt sokkal jobban tudjátok, mert mindannyian felsőszintű programozók vagytok...
  • RpPRO
    #47
    Jo, nem vitatkozom. A 6800as egy nagyon jo kartya, DE: az nvidia driver csalasai miatt, a merete (bumfordisaga), melegedese, stb. miatt nem fogok a kozeljovoben barmilyen nvidia kartyat venni. A neten rengeteg infomorzsa van, erdemes szemezgetni es ermdemes gondolkozni, mielott butasagokat mond par ember. Befejeztem, udv.
  • Borg
    #46
    Legyünk korrektek ok.

    Az nvidia 30-40%-os teljesímény növekedést ért el, a képminőség kárára a csalásaival, amelyek mind a mai napig jelen vannak.
    Az ATI pedig 1-3%-ot, a képminőség romlása nélkül, ráadásul 1 héten belül az új catalysttel el is távolították még ezt is.

    Ennyit a 3dmark féle lerágott csont ügyről.
  • PyRex
    #43
    IKONNAL indul :))))))))))))))))))))))))))))))))))))))))))))))))))
    (Kint van a desktopon! :)))))))))))))))))))))))))))))))))))
  • PyRex
    #42
    Nonono: az nVidiáról eddig rohadt sok csalás kiderült (képminőség romlás a sebesség árán, 3D Mark, ésatöbbi, lehetne még sorolni). Az ATi kártyáiról is azonnal kiderülne, hidd el, HA csalnának...
  • PyRex
    #41
    Basszus, azért ez az nVidia egyre nagyobb LOL! :)))))))))))
  • RpPRO
    #38
    Szerinted az ujjambol szoptam ki te szerencsetlen hulye?

    Nesze: http://www.beyond3d.com/forum/viewtopic.php?t=12228

    update: http://www.elitebastards.com/forum/viewtopic.php?t=4676&sid=3c5945715a95518139045884b8034ffa

    Off/ Tenyleg nem exe-vel indul :DDD
  • Borg
    #35