5047
23001954630.jpg\"


Az nVidia G90-sorozat
  • Gabesz amd64
    #122
    majd lesz

    ne aggodj
  • MaSzKa
    #121
    Geforce 10-es topic ugy látom nincs még :-)
  • virs lee
    #120
    Több helyen is írtak róla. Nyilván nem a csalás címszó alatt kell keresni, hanem az "optimalizációnál" (a terroristák is felszabadítónak hívják magukat). Mint régen az FX-eknél.

    Hibát lehet találni a GF8800-ban is, elég súlyossakat.
    Meg az R2900 XT-ben is.

    Amíg nem keresel az eredményekre magyarázatott nem is lehet magyarázni.
    Engem nem a magyarázkodás érdekel, azzal tele a padlás. Csak a tények. Mit tud? Jelenleg csak ígérgetni hogy majd egyszer esetleg jobb lehet. Vagy nem. Mire jobb lenne (DX10 only), addigra már egy integrált intel videokari is 2x erősebb lesz nála.
  • ATi0021
    #119
    NVIDIA: G92 novembertől

    Ha hinni lehet a hivatalos, előre kinyomtatott meghívóknak...

    Felröppent információk szerint az NVIDIA már postázta pár partnerének a novemberi meghívókat a G92-es GPU hivatalos bemutatására. Természetesen most is -- mint szinte mindig a VGA-piacon -- a felsőkategóriás egyedek felvonultatásáról van szó, melyet később -- várhatóan jövőre -- fognak követni az alsó- és középkategória számára kellőképpen lebutított lapkák.
    Forradalmi változtatásokat ne várjunk az új magtól, leginkább a G80-as továbbfejlesztéséről beszélhetünk - vagyis az NVIDIA-nak az egyetlen célja, hogy tovább erősítse pozícióját az AMD-vel szemben. Arról sajnos nem szól a fáma, hogy a DirectX 10.1-es támogatással mi lesz, mi azért reméljük a legjobbakat. A G92-es két legfontosabb -- már akár biztosnak is mondható -- újítása a 65 nanométeres gyártástechnológia alkalmazása és a PCIe 2.0 támogatása lesz.

    Forrás: HardwareOC
  • Abu85
    #118
    Nem láttam trükközést a Catalystban. Nem is értem, hogy merült fel a képminőség amikor az AMD jár élen a WHQL minősítésben. Nyilván az elején még csak beta meghajtó állt rendelkezésre azok nem kerültek aláírásra. Az AMD és az nVidia benc. guide-ja is csak WHQL meghajtóval történő tesztelést ír elő, ha valaki ezt nem tartja be akkor hivatalosan nem minősíthető a kártya, legalábbis a képminőség alapján. Olvasd el magad a tesztelési útmutatókat a cégek oldalain.
    Hibát lehet találni a GF8800-ban is, elég súlyossakat. Ott van a megjelenés óta ismert, de csak manapság bejelentett "texture remain" probléma. Ez lényegében azt jelenti, hogy a GF8800 nem képes minden texturát eltávolítani a memóriájából, és egy idő után a nem használt és bentmaradt texturák miatt betelik a memória. Az orvoslás egyelőre annyi, hogy lépj ki ALT-TAB-bal és vissza. Most ez alapján mondjuk azt, hogy a GF8800 nem ajánlott, mert tény, hogy lassan egy éve nem találtak a hibára megoldást? Nem akartam felhozni a hibát, mert nem akarom rontani elméletben javítható dolgokkal a GF8800 eladásait, de nem értem mi alapján ítéled el a Radeon drivereit amikor sokkal súlyosabb problémákkal találkozunk nv-nél driver szempontból.

    Amíg nem keresel az eredményekre magyarázatott nem is lehet magyarázni. Akkor leszel jó szakember, ha logikus magyarázatot keresel a tényekre, hidd el mindenre van ésszerű válasz. Itt egy csomó játékkal tesztelték a két rendszert, minden eredménynek megvan az oka. Speciel a Vegasban mért magas teljesítménynek is van logikus magyarázata, de az AA teljesítményre is lehet találni választ. Ha mindenek valaki megtalálja az okát, akkor kellő tapasztalattal rendelkezik, hogy eldöntse melyik rendszer az életképesebb. Mára azok az oldalak akik csak a tényeket nézik nem mérvadóak, de ha pusztán tényszerűen ítéljük meg a HD2900XT-t akkor is jó vétel, mert a 8800GTS640MB ellen versenyes árban.
  • virs lee
    #117
    Nem marhaság, asszem a PH-n volt egy cikkben ilyesmi (vagy hardwareoc, vagy hasonló), hogy a catalystban trükközik az ATI a 2900-zal.

    A 8800 azért jobb mert lényegesen több FPS-t produkál egy játékban mint a 2900. Ezen sokmindent nincs mit magyarázni, tele van tesztekkel az egész net.
  • Abu85
    #116
    A mostani driverekkel nincs is képminőség problémája az FX-nek, de amikor még csak FX volt a piacon akkor nem volt WHQL minősítet meghajtó. A minősítést pedig a legújabb grafkari képminőségére adják, illetve az új architektúra képminőségét hasonlítják össze a referencia raszterizálóval.
    Miért ne támogatta volna a D3D9-et. Az SM2.0a szabvány paraméterei jelentősen túlmutattak, a D3D9 követeléseinél sőt, még az Ati féle SM2.0b-nél is. Nem ez volt a baj a remdszerrel, problémák forrása jóval összetettebb ezeknél.
  • Akuma
    #115
    "Akkor nem kapna WHQL-t. Az FX sem kapott soha."

    Jónéhány FX-et támogató WHQL drivert adtak ki.
    pl. a legutóbbi 162.18 WHQL

    Más kérdés, hogy az FX-ek nem támogattak teljes DX9-et...
  • Abu85
    #114
    Nem erről van szó, az R600-ban van lényegében sokkal több shader erő.
  • Abu85
    #113
    Akkor nem kapna WHQL-t. Az FX sem kapott soha. Légyszives ne beszélj marhaságokat. Ha jól tudom az AMD 6 WHQL aláírást kapot már Vistára míg az nV most tart a 4-nél. Én csak vitatkozást látok tőled semmi konkrétumot. Nem feltétlen baj, ha úgy látod jobb a G80 csak alapozd meg az állításod elemzéssel.
  • w77d
    #112
    hát asszem ez lessz nálam is
  • Sir Quno Jedi
    #111
    Így van, addig talán én is kihúzom ezzel a kis picsányi GTS-sel...talán... :DDD
  • Arthas
    #110
    hmm. lassan adhatom el a 8800GTX-emet:D
    Azthiszem venni fogok 2008 elején egy négy magos procit és egy 9800GTX-et:D
  • virs lee
    #109
    Ja, de csak azért mert "optimalizálják" a megjelenítést. Lerontják a képminéséget, mint régen az Nvidia.
  • virs lee
    #108
    A felépítés az kevés. Kb. annyi mint hogy a trabantnak is 4 kereke van, meg az audinak is. Erő is kell hozzá.
  • Abu85
    #107
    A 7.1-et használták a régi Radeon karikra, míg a HD2900XT-hez a legelső beta drivert telepítették. Azt mondtam, hogy új driverekkel még ennél is gyorsabb.
  • Abu85
    #106
    Én is ezt mondom. A jövőben fog az R600 felépítése érvényesülni.
  • grebber
    #105
    Itt az atinál a 7.1 nem a legújabb.
  • virs lee
    #104
    jelenleg
    De a jövőben már nem jelenleg lesz.
  • Drizzthsz
    #103
    Azért abban a Gi demoban lehetne éppen 10-nél több objektum is, ami meggyőző volt az inkább a skines demo, ahol 5170 karaktert animált egyszerre 10 fps-sel.
  • Abu85
    #102
    Azért ennyire nem rossz a helyzet. A GI demót futtatja 55FPS-sel akkor sok baja nem lehet a jövőben, lévén ez a legkomplexebb D3D10-es alkalmazás jelenleg. Meg kell tanulni a WDDM-et és száguldani fog minden. Eleve látható, hogy jelenleg nem a Shader erőre gyúrnak, elvileg 13:1-es Alu:Tex arány is fekszik a rendszernek tehát nem fog esni a teljesítmény, sőt inkább nőni fog. A G80-nak 6:1 arány fekszik a legjobban, jelen játékai is hasonló Alu:Tex arányokat használnak.
    Ne mondj rémhíreket, amíg nem tanulmányoztad D3D10 API elveit addig nem hiszem, hogy van alapja a sebesség megjósolásának.
  • virs lee
    #101
    Persze, gyorsabb lesz, 0.1 fps helyett kapsz is vagy 0.3-at. Csak épp 60 kéne. De ahhoz meg az ereje lesz kevés a 2900-nak, hiába tudja a dx10 függvényeket. Ez pont olyan vita hogy a lada gyorsabb mint a trabant, mégis inkább repülővel megyek ausztráliába. ^^
  • Abu85
    #100
    Már hogy ne lenne a D3D10-es feldolgozás gyorsabb, csak a jelenlegi motorok átírt kódot tartalmaznak, ha az elejétől készítik fel a rendszer a D3D10-re és használják a D3D10-es elveket akkor gyors lesz.
  • Abu85
    #99
    Hát a 320MB-os GTS az a memória mennyisége miatt elég kevéske lesz. Más most látszik néhol, hogy a -320MB komoly veszteség.

    Teszt a legújabb driverekkel még ezen is javít. Tipikusan az UE3 nagyon fekszik neki (vegas teszt), ezt Sweeney mester is elismerte a B3D-n.
  • virs lee
    #98
    Amíg tehát az AMD jövőre ígéri az újabb generációváltást, az nVidia a jelek szerint már idén végrehajtja azt, így nem lesz hosszú az első DirectX 10-es kártyák pályafutása.

    Na ezért felesleges "majd egyszer valamikor" kihasználható DX10-ben gondolkodni _most_.
  • Drizzthsz
    #97
    HA nem lenne a 320-as Gts, akkor Hd2900-at vettem volna, de így az ár eldöntötte, főleg hogy én csak ideiglenesen tervezem a kártyát.
  • virs lee
    #96
    Én is ezt mondom, mire kijönnek az igazi DX10 gamék, egyik se lesz elég, akkor meg tök felesleges a vita hogy a 0.3 vagy a 0.2 fps a jobb. :)
  • virs lee
    #95
    Ez azért igen erős túlzás, mondjuk úgy hogy képes tartani vele a versenyt. Ez viszont azért nem eredmény, mert a GTS messze nem a csúcsmodell, ráadásul a radeon 1 évet késett, illett volna vmit felmutatni.
  • Drizzthsz
    #94
    Ez nem igaz. Egy 8800 Gts320 circa 20K-val olcsóbb, mint az 512-es HD2900XT, s még sem sok hely van, ahol sokkal gyorsabb lenne, sőt:
    ph-s cucc
  • hen-tes
    #93
    Erről mutass egy tesztet légyszi!
  • Drizzthsz
    #92
    A Call of Juarez egy jó példa arra, hogy dx10-hez jelenleg nv és ati is édeskevés, márha jól megírtnak tekintjük a progit.
  • Abu85
    #91
    Amúgy ha a pénznél tartunk akkor a HD2900XT, GF8GTS640 áron van amit minden esetben nagyn lazán elpicsáz.
  • Abu85
    #90
    Ezt tapasztalatból cáfolom. Amikor megkérdeznek a boltban azt kérdik, hogy melyik architektúra lesz életképesebb. Az emberek 90%-ának fingja sincs a teljesítményről.
    Tipikus eset: Mit szeretne GeForce-t vagy Radeont? - Hmm... A Radeont azt már hallottam valamikor az jó lesz. Azt sem tudják, hogy mit vesznek.
  • virs lee
    #89
    Sztem meg arra kíváncsi mindenki hogyha kiad x ft-ot, mit kap érte? Ígéretet vagy teljesítményt?
  • Abu85
    #88
    Meggyőződésem, hogy a legtöbb ember arra kíváncsi, hogy melyikben van több lehetőség, tehát melyik lesz tovább használható.

    A logók a legtöbb esetben nem többek reklámnál. Vannak olyan nV logós játékok ahol jobb az Ati pl.: Call Of Juarez D3D10-ben.
  • virs lee
    #87
    miért lenne érdeke egy fejlesztőnek előnyben részesíteni az egyik cég kártyáját
    Pénz? ^^ Nyilván nem puszta lelkesedésből rakják ki az Nvidia / ATI logókat a játékokba.

    Tök jó ez a shader így, skalár úgy, még talán el is hiszem, de ez csak a bizonyítvány magyarázás. Engem ennél jobban érdekel az FPS amit a játékokban látok. És felőlem lehet szarabb olyan featurekben a cucc, amit nem is használ (DX10 only), engem csak az érdekel hogy _valós_ alkalmazásokban hogy produkál. Mert én azokat használom, nem a techdemókat meg leírásokat. Telefont is addig vettem a legújabbat, amíg meg nem untam hogy szart se lehet letölteni rá, az 1000 éves vackokra meg hegyekben áll a cucc. Mert ahhoz minek 64MB ram hogy egy szaros 200k-s java game ne menjen rá, mert az csak a másik típusú telefonra jó? Inkább vettem egy PDA-t, aztán megy rajta minden ami win mobile alapú. Mert csak az számít amit látok, a függöny mögött a bizonyítvány magyarázás van.
  • Abu85
    #86
    Texturázási és blending képességek összehasonlítását megírhatod arra más nincs erőm.
  • virs lee
    #85
    Semmiről.
  • JAG1
    #84
    Ööööö....épp akartam mondani.
  • JAG1
    #83
    Mi az, hogy fanboy?
    Ez olyan trendi duma, mint a party, meg a vásizni, vagy a dumcsi?

    "Azért nincs fogalmad..."

    Miről nincs fogalmam?