34
  • Sanyix
    #34
    "Részletgazdagabb képep kapunk, de amit mutattak képet (MS Flight Simulator) az hazugság, ezt be is ismerték."

    Ígyvan, és minden dx10-es játék hazugság, ami nvidia kártyán nem gyök2 fps-el megy. Miért? Mert a dx10-hez és az sm4-hez hozzátartozik a geometry shader használata, amivel az nvidia kártyák kártyák olyan sebességgel dolgoznak, mint bármilyen shaderrel az integrált videokártyák... ergo borzalmasan fos sebességgel. De nem olyan szörnyű, az fps nv-ken, tehát nem használnak dx10-et, max valami 9 és felet.

    De vannak itt okos emberek... á minek a gyorsabb, egyszerűbb kód, minek az optimalizálás, persze megyünk venni a bótba 100k-ért az új dzsíforszot, mer van ám pénz ilyenkor, különben meg megy a sírás, hogy nincs...
  • tomcsa4
    #33
    Tévedsz, mert élsimítást ha tetszik, ha nem kötelezővé teszik. Na ármost tölts be egy Assassint GF 8800GT-n és HD 3870-en élsimítással. Meglátod, utóbbi megeszi az előbbit vacsorára. És most kérlek ne gyertek avval, hoy "max nem kapcsolom be", mint mondottam közelező, ráadásul ha arra van optimalizálva, akkor azt kell használni. Miért kell azt használni? Jogos a kérdés, erre egy saját tapasztalatot hadd írjak:

    Nekem ugye nincs csúcsgépem (4000+ S939, 2GB Ram és X1950GT Atitól). Na, ha a textúraszűrésnél eddig mindig a Billineart használtam (régebben is GF 4 MX 440-en). DE amikor felvettem TRillinearra, akkor sokkal jobban futott. NEm hazudok, sokkal! MEgnéztem öcsém 6600GT-jén és már ott is előjött ez. Miért? Mert arra van optimalizálva. Ma a játékok 1280*1024 felbontásra vannak optimalizálva. Unokatesóm én ajánlásomra lecserélte a sima 6600-asát (mely egy kalap szar) 2600XT-re és csodálkozottt hogy szaggatnak a cuccok 1024-ben. Mondom tegye fel 1280-ba és jobban fog futni. Nem vágta, megcsinálta és jobban futott (Unreal 3 grafmotor). Arra van optimalizálva. És ezéet is futak jobban konzolon a játékok, mert ott is egy felbontásra tolják őket. Most a HD miatt tolhatnák többre is, de ott is egyet vesznek alapul. Én legalábbis így tudom.

    Ráadásként DX 10.1-ben függvényoptimizáció is van, ezáltal kevesebb ciklusból oldja meg a feladatot, ami jó. De a DX 10-DX 10.1 nem nekünk jelent felüdülést, hanem a programozóknak. Mivel egy csomó segítséget nyújt. A lényege annyi lenne, hogy DX 9ben kötött az, hogy mennyi poligonból álló kép jelenhet meg. Na a DX 10 ezt megsokszorozza. Tehát nem kell vacakolni, hogy kevesebb poligonból, de több fős szörnyeket jelenítsünk meg, vagy fordítva. Részletgazdagabb képep kapunk, de amit mutattak képet (MS Flight Simulator) az hazugság, ezt be is ismerték.

  • dez
    #32
    Papíron igen, gyakorlatban meg nem. A jelenlegi GF-ek is csak papíron támogatják a DX10 egy nem elhanyagolható (izé, a játékfejlesztők mégis ezt teszik, Nvidia behatásra) részét (GM, stb.), a DX10.1 viszont megköveteli ezen részek rendes támogatását is.
  • waterman
    #31
    én meg merném kockáztatni, hogy az ati/amd oldaláról masszívan kapaszkodnak a 10.1 amúgy aprócska hiányába és ezzel nagy felhasználói visszhangot keltenek. amiért most mi is itt lefutjuk a magunk kis köreit.
  • dez
    #30
    Van olyan, hogy 2-3 codepath van.
  • waterman
    #29
    ez amit írsz, tök trivi - tehát hogy ugyan minek fejlesztenék béta állapotú directX verzióra. engem az érdekelne, hogy a directX10 és 10.1 között milyen különbségek jelennek meg, ha például megírom 10.1-re, de egy 10.0-ás kártya hajtja meg a dolgot. én arra következtetek, hogy max kicsit lassabb lesz, vagy urambocsá nem olyan szép itt ott (de múúkodik!). tehát 10.x a verzió, el kell, hogy indítsa a 10.1-re írt játékot a 10.0-ás kártya, ellenkező esetben nem lehetne 10.akárhányasnak nevezni mindkettőt. erre valók a megkülönböztetett verziók.
    tehát jogos-e egyáltalán a felháborodás, hogy nincs benne pár optimalizált kóddarab a kártyában, ha egyszer mondjuk nem olyan jelentős a különbség?
    elolvastam a wikipedián a directX10-10.1 részeket és olyasmik vannak említve plusszként a 10.1-nél, hogy kötelezően 32bites lebegőpontos filtering, kötelezően 32bites élsimítás és shader model 4.1. -> elolvasva a shader model 4.0-ról a bejegyzéseket, már ott is tulajdonképpen majdnem szabadon, vagy igen széles határokon belül mozoghatott a programozó a 3.0-hoz képest (létezhet-e, hogy akinek nem elég mindez, az lehet nem tud programozni?). ergó mivel nem 5.0-ának nevezik, hanem csak a 4.0 egy frissebb változatának, így előfordulhat, hogy ugyanúgy megoldható a 4.0ással is minden mint a 4.1essel. - valamint ati/amd-hez viszonyítva elég jól állnak az erőviszonyokat figyelembe véve.
    tehát ha így vesszük, akkor logikus, hogy nvidia nem akarja mondjuk áttervezni a fél chipet, mikor ők mondjuk elég közel vannak a tűzhöz és tudják, hogy mi történik a chipen belül. lefuttattak millió+1 tesztkódsort[múúkodott], hamis, false kódokat is, hogy mennyire hibatűrő, elkezdték legyártani úgy a chipeket[10.0], aztán valaki beordított a köztudatba, hogy nekem kell még az a 0.1-nyi directX és "akarom!" és "Kell! a dx10.1, mert anélkül nem megy 0,74 fps-sel jobban a crysis!" bla.. tehát mennyire a marketing miatt hisszük, hogy kell nekünk a 10.1? ide nekem egy képet, egy fps adatot, ahol >szignifikáns<, illetve a játékélményt romboló hatása van a 10.1 hiányának. tehát az hogy 14 fps helyett 14,9-cel megy valami az nem szignifikáns, mert mindekettő sz*r.
    valamint tudják, hogy minden erőforrásukra szükség lesz, mert a közeljövőben áttérünk a cpu-ba integrált grafikára, ők csak gpu-t gyártanak, lemaradhtanak, kiszorulhatnak, minél gyorsabb a fejlődés annál gyorsabban szorulhatnak ki a piacról, etc.. érthető, bár felhasználói oldalról elítélendő a dologhoz való hozzáállásuk.
    végigolvasva a hozzászólásom, lehet elég ködös. összegezve: megéri-e ennyire sápítozni a 10.EGY hiánya miatt, ha ennek ellenére a valós alkalmazásokban a csak 10.0-ás kártyáik jól teljesítenek?
  • kvp
    #28
    "majd fogsz te meg sirni ha valoban 10.1-re lesznek fejlesztve a jatekok,"

    Ez csak akkor fog megtortenni, ha vegre felhagynak az elavult konzolok (ps3, xbox360) tamogatasaval es csak vista-ra es ati kartyara hozzak ki a jatekokat. Egy jo ideig erre valoszinuleg nem lehet szamitani. Addig meg mindent dx9-re fognak optimalizalni.
  • Gabesz84
    #27
    majd fogsz te meg sirni ha valoban 10.1-re lesznek fejlesztve a jatekok, mert AA-t azt kb 2x gyorsabban vegzi el 10.1-es modban a kartya mint sima 10-es modban.
    Ergo dx10-el bukod majd az elsimitast, hogy elvezhetoen jatszhass (tehát ne szaggasson...)
  • Gabest
    #26
    Minimális újdonságok vannak a 10.1-ben. Semmi olyan ami nélkül nem lehet élni.
  • tomcsa4
    #25
    Nem hiába van kevés DX 10-es játék, ha béta. Ott a DX 10.1. Amikor kijött a DX 9.c, akkor se optimizáltak DX 9.b-re. Más fórumokon is olvasok hasonlókat, nem tudom. Én se vagyok programozó, de nem hiszem, hogy ha MS mondja, béta a DX 10 és van DX 10.1, akkor ki az a hülye, igénytelen, aki DX 10-re fejleszt (jó tudom megválaszoljátok: nvidia). Tényleg nvidia. Ez olyan, mint a Radeon Xxxx sorozat SM 3.0 hiánya, csak most fordítva.
  • Gaboca76
    #24
    Ha valakit érdekel akkor itt ezen a veb oldalon angolul utána nézhet.
    http://www.thocp.net/slideshow/take_a_tour.htm
  • waterman
    #23
    valaki foglalja már össze nekem, hogy miben jobb -->láthatóan<-- a dx10.1, mint a sima dx10. csak mert még dx10-es játékból is elég kevéske van, és valahogy nem hiszem, hogy akkora teljesítménybeli különbség mutatkozna a két rokon verzió közt.
  • tomcsa4
    #22
    Ez a "nem láttnuk még DX 10 effektek, minek a DX 10.1"-et nem tudom ki találta ki, de baromság. DX 10 az béta, DX 10.1 az meg kiforrottabb. Nem kell mindenáron mindent egy kalap alá venni, ha utóbbi jobb.
  • Sanyix
    #21
    Nemhallottál még milyen az antialiasing dx 10.1-ben? Nézz utána, és majd tudni fogod miért is kéne...
  • GABOR16
    #20
    Azért ha a Crysis valóban Dx10-ben (de még inkább Dx10.1-ben) készült volna a gépigénye nem nagyobb, hanem kisebb lett volna.. bár az Nvidiák megfeküdtek volna, mert a Dx10 valódi újításait meglehetősen lassan kezelik.. a Dx10.1 meg még a kiskapujukat is eltüntette, így nem tudják rárakni a Dx10.1 jelzőt...
  • tom235
    #19
    "Rohadékok csak a pénzre mennek az nvidiánál" tudod nem csak az nvidiánál mennek a pénzre, hanem a világon mindennél, ez a kapitalizmus.
  • tom235
    #18
    Nyílván csak annak kell dájrektiksz 10.1, akinek a játék az elsődleges a gépén. aki dlgozik a gépen, az nem fog félévente új gépet venni.
  • fade2black
    #17
    ...és mennyivel gyorsabb lett volna uaz DX 10.1ben.....
  • dez
    #16
    Azt jól teszik, mert az fx nagyon gyengére sikeredett.
  • torcipepe
    #15
    az Fx sorozatot meg leszarják és nem csak az nVidia, hanem a játékfejlesztők is. mindenhol azt látni: min video 128Mb (not Fx)
  • Balumann
    #14
    Ugyan már... Láthatod Crysisnál is mit ki lehet hozni dx9-ben is. Közel sem használjuk ki még azt sem, nem hogy a dx10-et. És nem is kell, felőlem lehet dx8 is, a többi része legyen nextgen (fizika, játékmenet, AI, stb.). Ha ezeket fejlesztenék így, akkor olyan játékok lennének, hogy tyű... :I Grafikát várjuk és bámuljuk, és erre mennek rá, a játékok meg visszafele fejlődnek inkább.
  • Balumann
    #13
    Miért? Mert nem lehet a részeit fejleszteni? Fenéket jobb. Maximum egyszerűbb annak, aki tényleg csak játszik.
  • Gaboca76
    #12
    Pokolra az nvidiával visszatartja a fejlődést, direktgix 10.1 nem teszi a kártyájába ne vegyetek geforszot vegyetek ati kártyát.Rohadékok csak a pénzre mennek az nvidiánál d*****fel a kártyáikat!10.1 direktiksz tényleg többet tud
    és nvidia vissza él a hatalmával pár hír jött arról hogy a programozókat lefizette hogy ne használják ki az ati kártyák plusz tudását.Ez szemétség ha mindig eljátssza ezt soha nem fog fejlődni a játékok grafikája.
    Le az nvidiával!!!
  • tom235
    #11
    Ezért jobb a konzol
  • kvp
    #10
    "Ha ilyen ütemben van fejlődés valóban búcsút lehet mondani a PC-s játékiparnak mer ember legyen a talpán az a programozó aki ennyi cuccra tud optimalizálni..."

    A gf8800-as ota ugyanolyan az architektura, csak a shader es a memoriakezelo egysegek szamat varialjak. Gyakorlatilag a gf8-as gf9-es es gfx-es :-) szeria egy csaladhoz tartozik, tudasuk is teljesen egyforma. (egyik sem dx10.1-es)

    Manapsag mar csak ket architekturara (ez azok amd-s megfeleloire) kell optimalizalni: a gf7-es sorozatra (dx9), mert a konzolokhoz az kell, es a gf8-as sorozatra (dx10), mert van par vistas jatekos is. A legtobb fejleszto ez utobbit kihagyja es a jatek csak dx9-ben megy rendesen es dx10 alatt nem hasznalnak semmilyen uj feature-t. Manapsag az osszes multiplatformos jateknak el kell futnia egy gf7-esen is, kulonben nem lehetne eladni oket. A pc exkluziv jatekoknak pedig eleg kell legyen egy gf8800-as is. Innentol meg turelmesen varjuk a dx10.1-es nvidia kartyakat...
  • Dévids
    #9
    Amúgy most már mi bír ki 1 évnél többet a számítástechnikába?Semmi.Sebaj úgy vannak vele, hogy hagy költsön a paraszt jó sokat a gépre! XDXD
  • dez
    #8
    Muris, hogy a G8x csíkszélesség-csökkentett változatát képesek voltak G9x-nek nevezni, meg 9-es generációnak (közben néhány dolog 8x00 nevet kapott), most meg szerénykén G92b-nek hívják az újfent csíkszélesség-csökkentett váltázatot. A G1xx/Gax-hez már tényleg nagy pofa kellett volna. :P
  • peterx
    #7
    Hát akkor ezt benéztem xd
  • dez
    #6
    Na persze az sem ártott volna, ha a cikk korrekten adja vissza, amit az Nvidia közölt.
  • dez
    #5
    De sokat értettél belőle...
    1. Éppen arról van szó, hogy nem váltják le a 9-es szériát még jó ideig. Az nyáron megjelenő 200-asok nem a helyükre lépnek, hanem föléjük, mint új szupercsúcs.
    2. Már a 9-es sem volt túlzottan újdonság a 8-ashoz képest, lényegében ugyanaz, csak kisebb csíkszélességen. (Még a neveik is keverednek, lásd cikk.)
  • dez
    #4
    Egyébként meg még egy évig..
  • peterx
    #3
    Így asszem a 9-es szériát is kihagyom...

    Most komolyan a 9-es széria is újdonság volt most 2008 TAVASSZAL(!) eszerint a cikk szerint: http://www.sg.hu/cikkek/58419/nvidia_osszeallt_a_9_generacio és erre már most júniusban jön a next gen! Ha ilyen ütemben van fejlődés valóban búcsút lehet mondani a PC-s játékiparnak mer ember legyen a talpán az a programozó aki ennyi cuccra tud optimalizálni... vagy ennyire szar a Gef 9 h már most lekell váltani?
  • dez
    #2
    "amely 55 nanométeres változatban is legfeljebb 2009 közepéig tarthat ki."

    Ezt a részt inkább így kellett volna írni, egyezve a többivel: "amely 55 nanométeres változatban egészen 2009 közepéig kitarthat".

    Magyarán az van, hogy a GTX 2x0 gyártása túl drága mulatság (és a nagyobb teljesítményen kívül úgysem hoz más újítást).
  • bertino
    #1
    milyen meglepő...