144
  • dez
    #104
    Na, benéztem, és ezt (is) találtam:
    "Mitől lenne szebb? A 3.0 semmiféle grafikai újdonságot nem hoz, csak programozók sorsát könnyíti meg, és ezáltal *elvileg* gyorsabban futtatható kódokat lehet írni rá." (Borg)

    Hát ez nem egészen így van. (Ezt csak néhány, egyértelműen ATI által támogatott projektekben dolgozó kis fejlesztőcske mondja!) Itt van pl. a Texture Fetch a VS-ben (lehet vele többek között valódi HW displacement mappinget csinálni). Léteznek már egyéb, csak SM3.0-val megvalósítható effekteket bemztató techdemók is. És ha belegondolsz, jópár pillanatnyi számítási eredménytől függő elágazást tartalmazó algoritmust lehetetlen, jobb esetben igen körülményes és lassú megvalósítani. (Olvashatsz erről pl. a beyond3d-n.) Ha a fentit hangoztatod, azzal az elfogultságodat bizonyítod...
    Mellesleg a FarCry nem lesz SM3.0 alapú egy peccstől. Csak mutatóba használják.
  • Alfa Of NS
    #103
    "Ati vs. Nvidiara csak annyit mondanek, vegyetek matroxot. ;P"

    Hat kene meg egy vetelytars
  • Alfa Of NS
    #102
    "Az FX-ek és a 6800-as széria nem a Doom-ra lett kihegyezve, hanem nagyon erősek a stencil buffering műveletekben és az egyéb árnyékok számításához szükséges dolgokban (mellesleg a 6800-asok pedig minden másban is)."

    >felhívja a figyelmet arra, hogy az nVIDIA driverei és kártyái is erősen optimalizáltak a Doom 3 elvárásaira. Ennek az optimalizálásnak természetesen a Doom 3 programkódján belül is vannak nyomai, ugyanis Carmack különös hangsúlyt fektetett a különféle grafikus processzorokhoz egyedileg megírt, optimalizált kódokra<

    "Szuper, hogy mennyire tudod, hogy mi miért csúszik."

    Uzletpolitika, csak erteni kell hozza

    "A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ."

    Ami meg technologiak szintjen mindig is kevesebbet tudott.

    "Vagy azért mert nem volt képes előállítani és gyártatni egy ilyen tudású chip-et és azt hitte, hogy ez az NVIDIA-nak sem sikerülhet. Hát ezt jól bebukta."

    Na persze, az ATI arrol hires, hogy nem tud vmit megvalositani. A piaci igenyek, hasznalhatosag/hutes stb teruleten kezd az nvidia elszallni ha nem vigyaz.
  • Borg
    #101
    A farcry-os topicban is gondolom vagy 5-6 :)
  • dez
    #100
    Hát nem tudom, de még tavaly olvastam erről, amikor még nem volt 6800. Később, már egy 6800-as tesztben meg (látszatra) pont ugyanúgy nézett ki 6800-ason az a csempe. Erről a "bug"-ról nem hallottam (igaz, utóbbi hónapokban nem is foglalkoztam a témával), van esetleg konkrét link?
  • Z
    #99
    nagy lol amit írtál, már ne is haragudj...

    (nem lehetsz túl idős, hogy ilyesmiket írogatsz)

    "DE nem amcsik a tervezők az nvnél és az atinál.
    Általában exportálják a tudósokat. Pl.:Afrikából :DDD"

    Honnan veszed? Voltál már egy ilyen munkahelyen is?
    Az export szó jelentését meg nézd meg egy szótárban. Mert amit Te akartál írni az import lett volna.

    "Az ati meg kanadai .DDDD
    Ugyan az :DDD"

    Sok smiley ide, sok smiley oda, ebből látszik, hogy nem nagyon ismered a világot. De nem a Te hibád. Még tudsz rajta javítani. ;-)
  • _Vegeta_
    #98
    Tiszta lol az egesz cikk meg a hozzaszolasok is. :D
    Mindegy en azert megvarnam a megjelenest, aztan kezdek vagdalkozni.
    Viszont mintha nekem ugy remlene, h a doom3 engine fejlesztese kozben carmack az atit partolta 1000l.
    Ati vs. Nvidiara csak annyit mondanek, vegyetek matroxot. ;P
  • Borg
    #97
    A PR anyaggal a HardOCP-s tesztre utaltam.
    Minthogy ugye nvidia+carmack+kyle egy csapat, tehát a teszt eleve nem lehet objektív. Vagyis lehetett volna, de nem lett az, mert az ATI részéről nem engedték meg a driver optimalizálásokat. Az nv miatt több mint valószínű, hogy nem lehetett d3-ban optimálisan sorbarendezni az ati kártyák számára is a kódot (nem engedhetik meg maguknak, hogy esetleg más eredmény szülessen). Külföldi fórumokon jó 10%-ra saccolják a gyorsulást ati kártyák esetében, a mostani grafikonokhoz képest.

    A farcry esetében valszeg mást is elbaszarintottak a fejlesztők. Egyébként nem FX esetén futottak benne PS 1.1 shaderek, hanem a 6800 esetén, az 1.1-es patchhel. Ugyanis a program akkor még nem ismerte fel rendesen a kártyát, és nem tudott hozzá renderpathet rendelni. Ezért visszaállt alap üzemmódba, ami PS1.1 az ilyen videokártyák (min. GeForce4-ek) elterjedtsége miatt. Szal az a csempe textúra (ha arra gondolsz) nem az FX kapcsán volt meglepő, mert azzal ennyit tud az FP16. Ami bug volt, hogy 6800-al ugyanolyan, vagy még rosszabb képet mutatott.
    Persze az NV3x renderpath esetében más jellegű optimalizációk is vannak, azonban ezek minden más kártyára is megtalálhatóak, és nem hoznak ekkora szignifikáns gyorsulást, mint a PP.
  • dez
    #96
    Ja, és nem csak a PP lehet az NV3x path értelme. Miért csak ez lehetne? A shader programok szervezése (utasítások elrendezése, regiszterhasználat, stb.) is fontos dolog, ami kihat a sebességre. És lehetnek még más specifikumok is.
  • dez
    #95
    első mondat "."="?" :)
  • dez
    #94
    Van elérhetősége ennek a PR anyagnak. Én csak ATI-s anyagot tudok erről.

    Egyébként egyátalán nem jelent akkora IQ romlást a PP, mint ahogy be van állítva. A fent említett anyagban is csak bizonyos esetekben látszik egyátalán, de akkor sem túlzottan.

    Az előző (1.1?) FarCry patch-et szokták ezzel kapcsolatban emlegetni, csakhogy ott szerintem nem PF16 van használva, hanem az INT12, mivel állítólag (tesztoldalak vizsgálatai szerint) PS1.1-es shaderek futnak FX esetén (2.0 helyett), márpedig elvileg a PS1.1 nem ismeri még az FP formátumot, csak az integert...
  • Borg
    #93
    Én nem fórumozók véleményére vagyok kiváncsi (sem a tiédre), hanem az általad említett Carmack féle idézetre.
    Mert lehet, hogy mennek standard ARB2-vel az NV3X kártyák, csak messze nem a 9800XT szintjén. A jelen teszttel kapcsolatban egy szóval sem említette Carmack, hogy az NV3X renderpath (mert erről beszélt viszont) milyen percizitást jelent. Márpedig ha NV3X renderpath van (és van), annak csak és kizárólag a PP lehet az értelme (ahogy azt a grafikon is mutatja). Valszeg nem véletlenül nem készültek egy nv pr anyagba IQ összehasonlító tesztek a 9800XT FP és az FX5950U PP között.
  • tehen_m
    #92
    Az ati meg kanadai .DDDD
    Ugyan az :DDD
    DE nem amcsik a tervezők az nvnél és az atinál.
    Általában exportálják a tudósokat. Pl.:Afrikából :DDD
  • dez
    #91
    "Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és előbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ."

    Bocs, de ez nem egészen így van. Ezek HW fogalmak. OpenGL2.0 alatt nincsenek még natívan támogatva, csak többnyire gyártó-specifikus extensionokkal.

    A többivel egyetértek (mert konkrétan tudható is mindkét dolog).
  • vrob98
    #90
    Hozzateszem, mar az alphaban se vettem eszre semmi bajt a kepminoseggel.
  • vrob98
    #89
    A Beyond3D forumaban tobb topic is volt errol.
    Az nV3x vs R3xx alpha tesztekhez kepest, a vegleges teszten is latszik, hogy a brutalis elonybol sokat veszitett az nV.
  • Z
    #88
    ez a nagy flém lol...

    ati vs nVidia...nekem ATI-n van már egy ideje, de eszembe sem jutott, hogy megemlítsem egy nVidia tulajdonosnak,hogy az xy teszt alapján ( nézd meg vazeg!!!) az ati 5 fps-sel jobb, különben is láma nVidia...szóval ilyesmit nem szoktam mondogatni, sem írogatni.

    OFF: Viszont azért kíváncsi lennék, hogy az "amerikát" (USA) mennyien fikázzák (hogy csak az olajért mentek, meg g*ci lehúzós banda, a világhatalmi törekvéseik miatt, meg milyen hülyék, mert olyan dolgokat tanulnak a főiskolán matekból, mint amit nélunk középiskolában tanítanak, stb) az nVidia fanok közül. Ugyanis az nVidia, ha jól tudom californiai székhelyű cég. Na most egy ilyen cégre kb. minden jellemző, ami egyébként az USA-ra.

    üdv
  • tehen_m
    #87
    Ennyi erővel az amd is lassabb, mert kisesbb órajelű????????????
  • Borg
    #86
    DirectX 9.0c letölthető
  • Dikkma
    #85
    Ja, 32/24 :) sorry :DDD
  • Dikkma
    #84
    Jaj, még ehhez:

    "Ami igazán meglepő, az azonban csak itt következik, ugyanis a FarCry 1.2 tesztben 3.0-s shadereket használó GeForce 6800 Ultra kártyát több ízben is képes volt legyorsulni az X800XT SM 2.0b-vel. Utóbbi előnye ugyan nem mindenhol egyértelmű, de olyannyira fej-fej mellett halad a két kártya, hogy igen kétségessé válik az nVIDIA kártyákon a Shader Model 3.0 értelme. Pont azokban az esetekben képes valamivel nagyobb teljesítményre az X800XT, ahol elméletileg az SM 3.0 előnyeinek jobban meg kellene mutatkozniuk."

    tegyük hozzá:

    24/32 = 1.25

    azaz "pont azokban az esetekben" ahol SM 3.0-t használ a játék, 25%-al több adat van. Miért is meglepő, hogy az alacsonyabb órajelű GF6800 (Néha! nem is mindig) lassabb, mint a magassabb órajelű X800? Inkább meglepő, hogy még így is sokszor győz.
  • Dikkma
    #83
    Ez nem így van, a renderelő mag már régen kész volt, JC saját bevallása szerint is már egy éve unatkozik (eddig Armadillo-zott, most már új technológiákon dolgozik) ergo egyáltalán nem nv-optimalizáción dolgozott.
  • Dikkma
    #82
    Butaságokat beszélsz.
  • Dikkma
    #81
    gém a játékhoz.. mi?
  • Borg
    #80
    Aha, légyszíves idézzed ezt a bejelentését, illetve támaszd alá képekkel, hogy valóban ARB2-ben ment ebben a tesztben.

    Jaa, hogy csak ködösítesz? Az más...
  • vrob98
    #79
    JC honapokkal ezelott bejelentette hogy az nV3x kartyak is standard ARB2-vel mennek az elozoleg tervezett speci nV3xpath helyett.

    Az ilyen kitoreseiddel csak magadat egeted ... a rosszabbik lehetoseg ha meg valaki komolyan is veszi amit irsz.
  • Ginoo
    #78
    Birom mikor sokan úgy szólnak hozzá a témához, hogy el sem olvassák a cikket aztán írnak sok okosságot és bölcsességet és megvannak róla győződve, hogy náluk senki sem tudhatja jobban.... :P
  • tehen_m
    #77
    Nem tudom miért írtál le ennyi felesleges dolgot fx szar és kész.Igaz a fx megjelenése után már javítottak rajta....de ez most nem lényeg.

    Ati optimalizációt hagyjuk, mert a d3 még se jelent meg.

    A doom3 semmilyen pontossággal nem készül.
    -persze, de kihasználja az nv 32bites pontosságát.

    Minden egyes grafikus processzoron külön renderpath fog működni, ami a maximumot hozza ki belőle.Ez igaz az NV40-re, és az összes ATI kártyára is...
    Ezzel kapcsolatban majd még írok....


    Olvass utána hogy az id miért "tette" félre az atit.

    Dehát ugye (most nem csak rád értve) akinek halvány gőze sincs a dolgok működéséről, az pont ennyit tud hozzátenni a témához, hogy búúú atifan

    Jajj de jót röhögtem ezen...a zárojelben már csak azt felejtetted ki, hogy: és én
  • Borg
    #76
    Ha valamihez nem értesz, azt legalább ne hangoztasd már... komolyan szánalmas... részemről rád nem reagálok többet...
  • sghu
    #75
    Olyan végtelenül nem értesz a dolgokhoz, hogy az már fáj. A "részleges precizitás" valóban nem mond semmit sem, mert magyarul pl. tök értelmetlen más nyelvben meg nem létezik.
    Ha valaha elolvastál volna egy OpenGL specifikációt akkor tudnád hogy ott nincs ilyen fogalom! De nem olvastál, ezért nem is tudod.
  • Borg
    #74
    Ez csak az NV3X-re igaz, de arra különösképpen. Az NV40 már nem lassú 32biten, a teljesítményével semmi gond nincsen.
  • valaé valaé ná
    #73
    Csak az a baj, hogy míg az ATI 24 bites pontossága jó teljesítménnyel és képminőséggel párosult, addig az nVidia kártyák lassúak voltak 32 biten 16 biten viszont rondák.
    Ezt a "hülyeséget" egy Carmack interjúból szedtem (ha jól emlékszem).
  • tehen_m
    #72
    mármint az nv6800
  • Borg
    #71
    A doom3 semmilyen pontossággal nem készül. Minden egyes grafikus processzoron külön renderpath fog működni, ami a maximumot hozza ki belőle. Ez igaz az NV40-re, és az összes ATI kártyára is. Egyetlen egy család van amire nem igaz, és az az NV30. Az ugyanis kegyetlen szar teljes precizitás mellett, és így (minden eddig megjelent D3 tesztben!) csupán FP16-al ment. Mindössze ez az az apróság, amit az "nvidia a gyorsabb b+" nevű szakértők itt rendre elfejejtenek. Mindamellett, hogy a jelenlegi tesztben az ATI kártyák sem működhettek teljes sebességen, mivel nem optimalizálhatta rá a drivert még az ATI. Pusztán emiatt a 2 szempont miatt nem érnek semmit a fenti grafikonok, akárki akármi atifanvsnvfan dolgot akarna belemagyarázni a dolgokba.

    Dehát ugye (most nem csak rád értve) akinek halvány gőze sincs a dolgok működéséről, az pont ennyit tud hozzátenni a témához, hogy búúú atifan. Ennyi a konzekvencia.
  • tehen_m
    #70
    "impozáns – teljesen 32 bites lebegőpontos – architektúrát hoztak létre"
    ph!
  • Borg
    #69
    Íme egy tipikus ember a sok közül, aki csak néz, de nem lát. Vagyis végignézted a grafikonokat, mint jelen esetben is, aztán azok alapján írták egy marha nagy baromságot. Olvasni is kellene ám néha.

    Ha legalább arra vetted volna a fáradtságot, hogy Carmack szövegét elolvasd, akkor tudnád miért volt gyorsabb az "NV" az ATI-nál D3-ban, és miért gyorsabb most is. Mert a sebesség nem minden ugye, csak ezt szeretik elfelejteni, főleg az nv ajnározók. Dehát a részleges precizitás mint fogalom gondolom semmit nem mond neked, szal kár is szót fecsérelni erre.
  • tehen_m
    #68
    Ha már sokan osztják az észt akkor én is megosztom veletek:DD
    ati +d3???na mi ez???xbox2ben milesz???
    ===ati+microsoft=d3
    A microsoft a directxben a 24bites pontosságot erölteti. :DDD
    (hát persze hogy ez is egy májkroszoft -billibácsi- anyszülemény)
    A 6800 már 32bites pontossággal dolgozik.
    Újabb kérdés a Doom3 32vagy 24bites pontossággal készül???Hát persze hogy 32.
    nv6800 ban mér rengeteg újítás van...

    Én még mindig pártatlan vagyok, csak nem bírom amit az ati csinál.Régen az nv csodálatos :( sorozata -FX után az nv fikáztam.
    Mindenesetre most szivesen vennék egy 9600xt ...
  • sghu
    #67
    "Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az előzményeket."
    Amit ez után írtál az tökéletesen megfelel ennek.
    Sok ok miatt is teljesen hülyeség amit a 16-32 bit váltogatásáról írtál, de egyébként erre majdnem 2 év állt JC rendelkezésére. Másfelől már az 1 évvel ezelőtti tesztekben is széjjelalázta az NV az ATI-t D3-ban, úgyhogy ez megint nem stimmel.

  • valaé valaé ná
    #66
    Azért tudom mert én olvasni is szoktam nem csak írni.
  • sghu
    #65
    Egyáltalán nem más tészta. Az FX-ek és a 6800-as széria nem a Doom-ra lett kihegyezve, hanem nagyon erősek a stencil buffering műveletekben és az egyéb árnyékok számításához szükséges dolgokban (mellesleg a 6800-asok pedig minden másban is). A Doom 3 megvilágítási modellje pedig éppen ezekre épül.
    Szuper, hogy mennyire tudod, hogy mi miért csúszik.

    "A HL2 csak PS2-t hasznal, mig a D3 meg azt se."
    Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és előbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ.

    "Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at."
    Miért szerinted a PS3 minek a része a DX10-nek?
    Vagy azért mert nem volt képes előállítani és gyártatni egy ilyen tudású chip-et és azt hitte, hogy ez az NVIDIA-nak sem sikerülhet. Hát ezt jól bebukta.