5047
23001954630.jpg\"


Az nVidia G90-sorozat
  • Abu85
    #82
    Azt nem értem miért vitatkozol, amikor ilyeneket írsz. Már miért lenne érdeke egy fejlesztőnek előnyben részesíteni az egyik cég kártyáját. A HL2 nagyon jól futott GF6-on. Állítom, hogy a GF FX-re volt a legjobban optimalizálva a Source. Ne azt nézd, hogy lassan futott az FX-en, hanem azt, hogy miből hoztak ki akkora sebességet.
    Gondolom te is tudod, hogy az Fx Pixel Shader processzorának (az nV35-től) a felépítése egy Skalár FP16/32-es MAD Alu (2 darab Texturázóval)->2 darab FP32-os skalár Alu/Comb.(MUL/ADD/FP16-MAD). Ez a rendszer ált szemben az R300 féle FP24-es Vec3+skalár(MAD)-Vec3+Skalár(MUL)(1 darab Texturázóval), 3+1 co-issue. Nem tudom mit vártál az FX-től, de az elejétől lehetet sejteni, hogy a Shader feldolgozásban borzasztóan kevés lesz. Az FX a driverekben azzal játszot, hogy a Shader precizítást lecsökkentette 16bit-re és ezzel lehetett a mini ALU-k FP16-os MAD utasítását használni.
    Hasonlóan eltérő az R600 és a G80 Unified Shader procik felépítése. Az R600 egy SP blokkjában 4 FP32 skalár Stream processzor(MAD)-1 FP32 stream/SFU van, 1+1+1+1+1 véletlen utasítású co-issue. A G80 SP blokkjának felépítése 4 darab FP32 FP32 skalár Stream processzor(MAD+MUL)-1 FP32 SFU (4 órajel/utasítás), mindebből kettő csoport párhuzamosan kötve. Már most látszik, hogy a D3D10-ben bevezetet trigonometrikus és transzcendens utasítások a G80-on 4 órajel alatt hajtódnak végre az SFU-n. Ettől eltekintve mindkét rendszer 4 darab skalár MAD stream procis. Azonban a gyorstárak elérése és elrendezése közel sem egyforma. A G80 minden futószalagján külön gyorstárakat használ ami korlátozza az adatok méretét, többek közt ez az oka a gyenge Geometry Shader teljesítménynek. Az R600 közös gyorstárat használ mégpedig a 80 utas SIMD tömbök mellett (R/W memory cache). Nyilván a legkevesebb adatot a Fragment számítás követeli, míg a vertex és főleg a vertex tömb már igen nagy helyigénnyel rendelkezhet. Mivel a G80-ban nincs elég gyorstár hely a memóriát kell használni ami viszonylag magas elérési időve címezhető ugyebár. Innentől gondolom már látható, hogy miért nem a G80 az erősebb a shader teljesítményben, helyenként siralmasan gyenge.
  • virs lee
    #81
    Azért nincs fogalmad, mert te egy fanboy vagy. Nem vagy képes megemészteni hogy nem az istenített kártyád a király. Ezelőtt Athlonom volt, most Core2 van, mert az a jobb. Volt 9800 pro / x850xt-m, most meg ez van, mert ez a jobb. Tudod, nem mindenki fanboyságból vásárol, bármilyen nehéz is ezt elképzelned.
  • JAG1
    #80
    Hagyd rá, kár a szóért. Tipikus viselkedés, ami neki van az a Jedi, a többi szar.
    Fogadni mernék, hogy az AMD-t ugyanígy fikázza. De, hogy miért, arról fogalma nincs, csak sokan ezt mondják és meggyőződése, hogy ez így is van. (Hozzátenném Intelem van.)

    De ha éjszaka kicserélnék egy ATI-ra a kártyáját, tuti nem venné észre.

    Mos majd jön ilyen ócska kifogással, hogy de észrevenné, mert más a hangaja, meg hasonló. :-)
  • virs lee
    #79
    ATI-ra "optimalizált" Half Life2-ben utoléri. ~~ Biztos beraktak minden utasítás közé 20 NOP-ot ha Nvidia karit detektál. :D
  • Gabesz amd64
    #78
    hogy lenne már egyenlő a sebessége? LOL

    néhol még a 8800GTS 320Mb-os elpics@zza
  • virs lee
    #77
    Miből kellett volna gondolnom? Az ígéretekből? Mert akkor azt is hihetném hogy 640k mindenkinek elég lesz. :D

    Akartam keresni egy 8800 vs 2900 tesztet, ez lett belőle. :DD
  • virs lee
    #76
    Minek? Nem tűnt fel hogy a linken az uccsó hsz meg itt az idézet csont ugyanaz?
  • Abu85
    #75
    De miből gondolod, hogy pár hónap múlva az R600 sebessége nem lesz egyenlő a 8800Ultrával?
    Ahogy én elnéztem más fórum szakijait kimondottan az R600-ra szavaznak. A tények általában a jelenre vonatkoznak, az erősorrend pedig pillanatok alatt megváltozhat. Az FX bukásához is csak egy játék kellett. A Gf8-ban megvan az a lehetőség, hogy az FX utódja legyen, bár reméljük nem lesz az.
  • zoolee
    #74
    pff..azt láttam, de hsz szám is mehetne..^^
  • virs lee
    #73
    Ezt nem toom kinek Írtad
    Azért van a link hogy rákattitasz és megtudod. ^^
  • virs lee
    #72
    Nem kell tőlem látni, elég ha másik 1000000 teszt bebizonyítja.

    Ez a "jövőbiztosabb" olyan üres ígéret, mint amik a konzolos tápigokban szoktak repkedni pléjstésön2-3-4-5...1000 fronton. 'Most nem jött be, de majd a következő, na az igen...' Mire odakerül a sor hogy lehetne kihasználni, addigra ereje nem lesz a konkurrenciához képest, a játékok meg ugye mindig a csúcsmodellre íródnak, illetve arra is csak épphogy, majd lesz köv. gen. amin jól fut alapon. Csak akkor lenne értelme a jövőről beszélni mint dontő tényező, ha a jelenben is fel tudna mutatni valamit, mert akkor ingyen jó, mint extra fícsör. De így hogy jelenleg se vmi fényes, és _esetleg_ valamikor majd akár jó is lehet, vagy nem, na ez nem egy konkrét dolog.
  • zoolee
    #71
    Ezt nem toom kinek Írtad, de egtöbben azért utállják/nemkedvelik mert 1 megrögzött NV sek, 2 az ati úgy 1 nagy rakat fosch ahogy van..
    Fél év elénnyel nem toott öszehozni 1 jobb karit.:S
  • Abu85
    #70
    De én még nem láttam tőled konkrét elemzést, hogy miben jobb. Valamiben jobb a G80, de az nem azt jelenti, hogy jövőbiztosabb.
  • virs lee
    #69
    folyt.:
    Áruld már el, hogy honnan ez az óriási ATI utálat?
    Vagy fizet az NVidia neked a reklámért?
    És ha az ATI teljesítene 2 FPS-el jobban a tesztekben, akkor az NV-t szidnád?

    Neked fizetnek az ATI reklámért? Nekem volt mindkettő, azt veszem amelyik jobb. Ez jelenleg az Nvidia. Ezt persze az ATI fanboyok nem képesek feldolgozni.
  • w77d
    #68
    szeva! te húzod a vidkarid?? ha igen meddig?? nekem 630/920 fölé nem igen akaródzik menni
  • zoolee
    #67
    Érdekesség..
  • Messiah88
    #66
    Nem, arra gondoltam amiről ez a topic szól.
    2 videokártya pedig 30-40%-os teljesítmény javulást adhat max.
  • Arthas
    #65
    jaja, 2 8800GTX-em lenne , aztmondod?:D
    Az most is 280 lenne kb :D

    Amúgy csak a monitorom videókarim volt geci drága: 220 + 150 K.....
  • Messiah88
    #64
    Jesszus, 640e-értgépet venni. Nemhogy nézegettél volna híreket és vártál volna fél évet a gép megvásárlásával. Akkor ugyan ennyi pénzből már a procid 4 magos, a RAM-od DDR3-as 1333MHz-es, a videokártyád meg 2-szer nagyobb teljesítményű lehetne.
  • hen-tes
    #63
    Persze! Oké! Aztán majd lesz hozzá egy traktor akkumulátor, hogy 1 órát ki is bírjon.. :D
  • tmisi
    #62
    Mert ő már Geforce 9-es vidkarival szerelt notit akar. XD
  • hen-tes
    #61
    Ezt miért ide? :|
  • Razors
    #60
    Helló Mindenki, ha valki lenne olyan kedves
    , akkor küldjön már 300ezer Ft körüli lap top típus neveket,vagy linkeket amin faszáúl folynak akár az erősebb FPS játékok is , az a baj, hogy nem nagyon vok othon a lap topokban, és már meg van a chas rá, de nem tom meikre érdemes kiadni ennyi $$$$$$$$$$ !!!!!
  • Gabesz amd64
    #59
    mire várjanak?

    már a G100-ast is fejlesztik,szal :D
  • zoolee
    #58
    Sőőt..
    Ha itt tartunk akkor még a DX 9 et se aknázták ki telesen...:)
  • LackoMester
    #57
    még a 8 szériás karikat sem használjuk ki igazán,de kell a fejlödés...
  • Nandusz
    #56
    De lehet, hogy 10x annyit keresnek...ezt sosem tudhatod
  • Akuma
    #55
    Ilyenért hülyeség felháborodni, és bőven van olyan, aki bírja pénzzel. A fejlesztőket se kell sajnálni, kétszerannyit keresnek, mint szüleim együttvéve... dolgozzanak is meg érte!
  • n3whous3
    #54
    Kicsit felháborító. Még alig készültek el a középkategóriás 8xxx sorozat tagjai és már szopóka-nyalóka.

    Ki bírja ezt pénzzel?

    Ezen kívül el tudom képzelni a fejlesztőket. Alig tudják optimalizálni a játékokat (részben a folyamatosan, rohamosan fejlődő hardverek piacán) és most kaptak egy adag fost a pofájukba. Lehet erre is optimalizálni. És még meg se jelent...

    p.s. És a Duke Nukem Forever így hogyan fog megjelenni?
  • Sir Quno Jedi
    #53
    Rakjál rá driverből 16xANISO-t is a 16xFSAA mellé és láss csodát, bámulhatod a diashowt! :DDD Tapasztalat.

    Nem kell csodát várni ezektől a kariktól sem!
  • Arthas
    #52
    1900*1200 -as felbontás+ 16X-os élsimítással próbáltam volna Oblivionozni:D


    Amúgy csak ez az egy játék az ami nem megy szépen ezekkel a paraméterekkel nálam...
  • Nandusz
    #51
    A gépeden nem igen kéne szaggatnia semminek
  • Bucser
    #50
    ezért érdemes 6Ksról 9K-sra bővíteni:D legalább majd bőven meglátszik a teljesítmény növekmény:D már csak csoffadt Vista kell neki a Dx10 miatt:(
  • Dragooon #49
    hehe nekem is olyanom van (de már nem sokáig]
  • zoolee
    #48
    Tyűű, nem mondod...Asztaaaa...(de minnha ezt én is tudnám...)
    Csak itt az a baj, hogy sokaknak még a középkategóriás kerikra sincs pénzük, nem hogy az ilyan ~240 k s 8800 ultrára...És akkor még majd 9800 ra.....No de majd mikor a 8800 ultra lesz a közép kategória...:))))
  • Dodo55
    #47
    Van olyan game, ami kihasználja, az elmúlt fél évben viszonylag sok idő után ismét nagyot emelkedtek az új játékok gépigényei.
  • Arnoux
    #46
    Azért mert ha nem hoznak ki új vga-t akkor nem jutnak profithoz. Ehhez pedig nem kell nagy logika....
  • zoolee
    #45
    Ehh...
    Kérdezhetek valamit?
    Mi a francnak új VGA, ha még a 8800 asokra se driver nincs, se olyan game ami kihasználja.
  • Arthas
    #44
    Ugye menyire idegesítő ,ha az ember vesz egy új gépet és egy régebbi játék szaggat. Nálam is ez a helyzet, pedig monitorostúl 640K-t ebben az évben gépre ráköltöttem...
  • NeoMaN
    #43
    szvsz nem erősebb VGA kell ide, hanem normális programozó....