376
  • Abu85
    #56
    Nem kell kételkedni, egy csomó olyan DX10 eljárás van ahol a GF8 korlátjai miatt semmire sem képes. Az AMD sem azért lassabb, mert szar az architektúra, hanem mert teljesen támogatja a DX10 követelményeit, amikhez szükséges egy Stream output gyorstár, Unified Shader szerű kialakítás...
    Erre mennek el az HD Radeonokban a tranzisztorok, míg az nV másra is fordíthatja, mert nincs stream output gyorstára és az Shader ütemezés nem éppen unified shader rendszer benyomását kelti...

    Botrány csak akkor lesz belőle, ha kijön a Battlefield 3.
  • grebber
    #55
    Global Illumination a teszt neve amiben lassú nagyon az nvidia dx10-es családja.
  • Abu85
    #54
    A Crysis-ben a DX10 a D3D10_GSparticle parancsban kimerül. Ez ugye a robbanások részecskeszimulációja illetve a vízfelverődés a motorcsonakoknál, ezek képminőségben nem többek a scriptelt eljárásnál (GF8-on viszont lassúak a részecske szimulált eljárások, ezért vannak már tiltva driverből). Érdemes visszarakni pár verzióval ezelőtti nV drivert ott ugye nem volt a motorcsónakoknak vízfelverése, mert az GSParticle effekt volt. Az 1.1-es patch viszont csináltak rá fixed eljárást így arra van lecserélve az új driverekben. Tehát az nV sajna nem csinálja meg még azt az egy rohadt DX10-es effektet sem a Crysis-ban.

    A Lost Planet és a Bioshock csak a többcsatornás Int16-os texturaformátum miatt gyorsabb DX10-ben a Radeonnál. Nyilván használhattak volna FP16-ot is a fejlesztők, mert ebben a formátumban a Radeon majd 100%-al míg a Geforce 10-15%-al is gyorsabb és sokkal szebb a képminőség. Az Int16 viszont kézenfekvő volt az nV-nek, mert a Radeon TMU-it FP32-es szűrésre készítették fel, így az Int16-os formátum a nem megfelelő regiszterkialakítás miatt lassabban lesz leszámolva. Ez a Lost Planetben nem lehet visszahozni a shader erőből, mert ott kevés területen használnak komplex kódokat. A Bioshockban az új driverek már sokat dobtak a DX10-es eredményen, míg a DX9-eseken pedig egyenesen nincs ellenfele a HD3850-nek sem (akár küldhetnek ellene 8800Ultrát is).

    A Company Of Heroes és a World In Conflict pár komplex Pixel shader kódnál használnak speciális utasítást, ami miatt helyenként az átlag sebességhez képpest belassul a GF8, mivel SFU teljesítmény jelentősen kisebb a Radeon rendszerekhez képpest.
  • Solten
    #53
  • Abu85
    #52
    Inkább azért, mert a Techland nem volt hajlandó az nV kénye kedve szerint fejleszteni és világosan kijelentette, hogy használni fogja a DX10 újdonságait. Ezért vesztek össze az nV-vel, mert a zöldek még mindig nem prezentáltak valódi DX10-es VGA-t és még egy jó darabig nem is fognak. Éppen ezért csak a Call Of Juarez az egyetelen komolyabban DX10-es program.
    Jelenleg az 1.3-as patch teljesen kiüti az nVidia forceware kényszerítéseit, így a GF8-akon is lefutnak az Extra quality mód eljárásai.
    Teszt
  • grebber
    #51
    Crysisba ugyszintén nicns olyan dx10 alatt ami dx9be ne lehetne!
  • Bucser
    #50
    BTW nem azért vettem új kártyát, hogy kiégesse a szemem a DX 10effektorgia (ami egy hoax mert a dx10 lényege nem ez lenne) hanem azért, hogy a Dx9-es gamek sokkal gyorsabban fussanak. Ez megadatott innentől lefosom telibe, hogy melyik a gyorsabb. Ha pénzem lesz és lassúlnak nagyon a játékok váltok. Bár ez nem a közeljövőben lesz. Crysis-t meg leszarom. Útálok ArmA kivételével minden FPS-t.
  • Bucser
    #49
    A Bioshockban semmi nincs ami DX10-es lenne...
  • grebber
    #48
    Ott teljesít ahol igazi dx10 van most nemtudom a program nevét.
  • 5c0rp330n
    #47
    Élesebbnek sem élesebb szvsz. Az amúgyis az AA-tól függ, az meg ugyanannyi van mind2 képen. A különbség zérus.
  • Solten
    #46
    Nem vagy vele egyedül. Talán egy hangyaf*sznyival élesebb a kép.
  • AlieN911
    #45
    Akárhogyisnézem sok különbséget nem látok
  • Solten
    #44
    A különbség magáért beszél...

  • HM
    #43
    Sorold fel milyen elemeket tartasz dx10nek a krájziszban, bijosokkban?
  • Solten
    #42
    Meg a kompani of híróz, meg a krájzisz, biosokk, wörd in konflikt... :)
  • Solten
    #41
  • davidka003
    #40
    "Szerintem ez fáj neki... :)"

    Azért írtam, hogy fájjon.
  • Solten
    #39
    "Amint látom neked meg 8600GTS-ed van. Annál meg sokkal gyorsabb az Ati Hd 3850, pedig ugyanannyiba kerülnek"

    Szerintem ez fáj neki... :)
  • davidka003
    #38
    Technológiailag az Ati jár az élen.
    55nm VS 65 nm.
    Amint látom neked meg 8600GTS-ed van. Annál meg sokkal gyorsabb az Ati Hd 3850, pedig ugyanannyiba kerülnek.
  • Solten
    #37
    3× is drágább lesz...
  • zoolee
    #36
    Meg a f@szt gyorsebb a radeon!!!
    A COj ben csak azért gyorsabb, mert rendesen az ATi pénzelte a dx10 re fejlesztését...
    Amúgy, ha nem vennéd észre, sokkal gyengébb az ati mint az NV...
    Még azzal a 2 magos fosal is alig érik el az ultra sebességét...És majd ha jön a 9800 GTS/GTX ami elméletileg 3x gyorsabb az ultránál, akkor mi lesz?
    Ati megin eltűnik a francba.
  • Abu85
    #35
    DX10-es játékokban a Radeon a gyorsabb. Mondjuk az is igaz, hogy csak a Call Of Juarez DX10-es játék jelenleg.
  • Zinaj
    #34
    Zolee pontossan!
    Ha egy jatekot elinditok,nem ezeket a szarokat futtatom.Azert se ertem sokan mire verik magukat hogy ennyi pont megy annyi.
    Jatekba bizonyitson:)
  • zoolee
    #33
    Ez fasság....
    Senki se a 3d mark al játszik..-.-
    És aki eddíg NV s volt most is az marad...
  • MaSzKa
    #32
    seggítsetek gyerekek nem indul el ez a program :D
  • [HUN]FaTaL
    #31
    Egy darabig biztos fognak futni párhuzamosan (ahogy néhány játék támogatja az SM2-től SM4ig is, de azt nemtudom hogy a dx10.1 SM 4.1-et kapott e, ha igen akkor előbb utóbb a játékoknak biztos SM4.1l kell majd a futtatáshoz de az még amúgyis soká lesz...
  • HM
    #30
    Hát 8800gt-n dx10.1ben nem fog.
  • Bucser
    #29
    HA nem fognak futni a DX10.1-es gamek ahogy kellene egy 8800GT-n akkor elmegyek Koreába és feldugom az Nvidia tervezőinek és programozóinak seggébe a videókártyáikat egyenként és sorban veszem le őket majd a gyártósorrol. Azután viszek egy raklapnyit redmondba is, hogy Billék se maradjanak ki a jóból.
  • 5c0rp330n
    #28
    Ebben én azért kételkednék. Ha nem tudnának az nvidia kártyái dx10-et ténylegesen, abból óriási botrány lett volna már. EZ biztosan hülyeség. Biztosan tökéletesen tudnak dx10-et, azt esetleg el tudom képzelni, hogy a driver botladozik. De sokkal inkább gyanakszok a vistára, az egy teljesen kiszámíthatatlan roskadozó bughalmaz, 15millió sor programkód, és az egész egy kalap szart sem ér. Egyébként meg az a 2600XT hol is teljesít jól dx10ben? Tudtommal az egy harmatgyenge kártya dx10-re, azon kívül, hogy tud olyat, nem tud sokat felmutatni.
  • fittyfene
    #27
    Pár nagyfelbontású kép:
    Képek
  • Solten
    #26
    Most jön ki hozzá az SP3. Azért itt most dícséret a Micro$oftnak, hogy a tömeg hangjára fejlesztgeti a nagy öreget. Csak a DX10 miatt az emberek többsége nem vált. Annyira latymatag a vista utáni érdeklődés hogy előbbre kellett hozniuk az utódja megjelenését.
  • FlyHigh
    #25
    Lehet még egy darabig marad az xp, az sem kizárt, hogy tovább lesz pöckölve.:D
  • Dodo55
    #24
    DX10 meg csak Vistan van, ami meg emulálva futtatja a VGA drivereket másfél évnél régebbi alaplapokkal, tehát akkor ezt el lehet felejteni. Mondjuk a VGA-m amúgy sem tud DX10-et.
  • FlyHigh
    #23
    elhalmozott!:D Korrekt géped van amúgy.
  • NeoMaN
    #22
    3452 pontot kaptam...
    C2D 3200Mhz + ATI 3850
  • Cat 02 #21
    Letöltöd, rájössz milyen xar a géped, tök rosszul érzed magad

    értelem ? :D
  • Solten
    #20
  • takysoft
    #19
    Na neee.... még egy "kinek van nagyobb farka" topic?

    Amúgy tisztázzuk: DX10
    -DX10 ugyanaz, mint a DX9, csak extra shaderek vannak benne(meg az összes régi shadert is meg az újakat is Unified(egyesített) shaderekkel oldják meg hardware szinten), de programozni ugyanúgy kell. Olyan nincs, hogy valami lassú DX10-ben. max a kártya lassan viszi a komolyabb shadereket

    -DX10 alatt meg ne a régi M$ összegányolt vackát kell érteni ugye... hanem a normális kiforrott DX10.1-et. Az Ati 3850-es már elvileg tudja... nem teszteltem még olyat:D
    mert ugye a 8800GTX lehet k***a rdága de attól még szar, ahogy van. akkor is az volt, mikor megjelent, mert mindenki tudta, hogy jön a dx10.1 januárban. és jött is. (GYK: a régi DX10-es kártyák NEM dx10.1 kompatibilisek, bár az MS nagyon ígéri, hogy minden DX10-es játék a sima DX10-es karikkal is menni fog, mert megoldják driverszinten. fene tudja, talán grafikát butítanak, vagy letiltanak ezt-azt.. nemtom, bár teljesítmény úgyis újítani kell idővel)

    UI: nem vagyok ATI párti, csak azért említettem, mert ez már megjelent(nem vagyok 100%-osan biztos, abban se, hogy 10.1-es), asszem nvidiának is jön február végén vagy márciusban a 10.1-es karija. (azért megjegyzem, hogy mégis ATI párti vagyok, mert hiszitek, vagy nem, kompatibilitási szempontokból személyes tapasztalat alapján.. fura, mert elvileg az nvidiának van kompatibilisebb híre.. de mondtam személyes tapasztalat..)

    egyébként 3DMark-al mindig is inkább a rendszer stabilitását lehetett tesztelni extrém használat esetén...
    a "kinek van több pontja" meg... hát... a díszfaszok versenye.
    (utóbbi cél... baromság, előbbire meg nem kell topic:D)
  • grebber
    #18
    Pl van olyan tesztprogi ami elég erőteljesen dx10-re van és ott a 8800GTX is olyan lassu mint az atom miközben egy középkategoriás 2600XT-n rögögve fut az a dx10-es teszt!
    Sokak szerint (csak olvastam) azért nincs normális dx10-re alapozo game mivel nvidia nem lenne a helyzet magaslatán.
  • haxoror
    #17
    csak dx10, vajon miért?