82
  • GABOR16
    #42
    Azaz az NV kártyája csak a lényeget nem tudja :)
    A DX10.1 ben meg kötelező ezt használni, és ezt nem igen akarja jelenleg az NV, hogy elterjedjen, mert alaposan pofáraesne a jelenlegi szériájával... sebbeségben kb a HD 2600 XT v. pro (DDR3 mas) lenne a 8800 ultra színtjén (valahol régebben olvastam szintetikus elemzésekről)...
  • fade2black
    #41
    carmack és ID nem az OPengl fö tamogatója volt ami NVn jellemzöen jobban ment?
  • Abu85
    #40
    A Crysis remélhetőleg pofon lesz minden fejlesztőnek. Nyilván akármennyit fizet az nV a támogatásért, akkor is a program eladásából jön a legnagyobb haszon. Elvileg a Crytek nem zárta ki a fejlesztésből az AMD-t így a Patch-ekkel javítható a helyzet.
    A GF8 teljesen D3D10 kompatibilis, hiszen minden API-ra írt kodót képes lefuttatni, itt a probléma a sebességnél adódik. A legnagyobb baj a GF8 Stream output kezelése. Nagy vertex tömb esetén pokoli lassú, az R600 kb. 50x gyorsabban dolgozik. A Stream output a DX10 legnagyobb újítása. Gyakorlatilag a teljesítmény fokozására is tökéletesen alkalmas.
  • who am I 7
    #39
    őőő...Hát ennyi.Remélem szerencséjük lesz és nem jutnak a süllyesztőbe...Nem szeretném.Csak nekünk lenne rosszabb...
  • Su0my
    #38
    Hacsak Carmack-szerű fickók nem indítanak el valamit, eléggé sanyarú sors vár az Ati-ra... És globálisan meg az AMD-re->PC-s fejlesztésekre....
  • who am I 7
    #37
    Vagyis, biztos, hogy kispóroltak valamit, nem arról van szó, csak hogy akkor most hány generációt kell várni arra, hogy az nv, normális dx10-es gpu-t csináljon?
  • Su0my
    #36
    már csak azért is, mert hosszútávon úgyis az lesz a nyerő :P mellesleg most leepölköcsögözhettek, de egyre inkább (most az ő kköcsög menedzsereiktől, meg a tényleg eléggé visszataszító marketingjüktől eltekintve) az APPLE-nek kéne előjönnie, nézzétek csak meg, az ő hozzáállásuk a normális: új rendszer sokkal gyorsabb a réginél, igaz sok a csicsa, de ha már videókártyás topiknál vagyunk, akkor legyen is.. nem mellesleg az oprendszer (MAC OS) kihasználja a videókártya teljesítményét akkor is, ha pl egy aknakeresőt futtatsz rajta (oké, ez kicsiben volt, de mondjuk egy vágóprogramnál nem elhanyagolható a teljesítménynövekedés, a VISTA alatt ha pl futtatsz egyet, az csak a procit meg a RAMot használja..)

    a PCs világból pozitív példa: Blizzard, WoW: most nem a játékról van szó, azt hisz róla akárki amit akar, de egy GeForce 1-esen vígan, AKADÁSMENTESEN fut. Azért gondolkodjunk el a dolgokon.. Ráadásul személy szerint a kicsit képregényszerűbb grafika, még jóval kisebb poligonszámmal is sokkal SZEBB, HANGULATOSABB, mitn a Crysis-é. Arról nem beszélve, hogy itt mindenki egy dolgot felejt el: a grafika a játékélmények max 1/3-a.. Szóval én igenis kicsit rossz szemmel nézek a tripla/stb SLI-s emberkékre... Nekem is lenne rá pénzem, de egyrészt áálljuunk már két lábbal a földön, másrészt meg gondoljunk másra, másokra is..
  • who am I 7
    #35
    És ebben az a szomorú, hogy az aTi, nem fogja tudni felvenni a versenyt, és az nv tovább vacakol a full dx10zel..Nem?Kérdés, most az nv-sek g8x-g9x-es kártyái, most akkor teljesen dx10 szabványosak, vagy kispóroltak belőle valamit???(Nem tudom, ezért kérdezem:).És akkor megint csúsztatnak....
  • Su0my
    #34
    dx10
  • Su0my
    #33
    na ugyan egyik topicban leírtam, hogy az igazi megoldás jelenleg egy nVIDIA kártya, még most is ezt tartom, lévén ők pénzelik a fejlesztőket, blabla, de tuti, hogy ATI kártyás gépet veszek... remélhetőleg az APPLE visszatér hozzájuk, ha nem... kicserélem xD
  • Su0my
    #32
    itt nem a programozók a hibásak, hanem a szarfos menedzserek, akik a pénzvilágban majdnem mindent iránylanak, ezért süllyed minden színvonala
  • bardocz
    #31
    d3d10 az micsoda?még nem hallotam róla

    #29 ha 2 ilyet öszekötsz az már quadnak számít,mivel a kártya alapból 2 magos,és ez olyan mintha 2 ösze lenne kötve sli-ben,csak egy házban(gyakorlatlag meg a +30% lófasz,de ez inkbb átlag,van ahol lehet hogy 100%-al többet tud,van ahol meg semmiel sem)
  • GABOR16
    #30
    Az ati megoldása valamivel jobb, hogy ő a felső szegmensben nem gyári CF tervez hanem 2 magos kártyával akar majd jönni, így némileg jobb a helyzet, mert csupán a feldolgozóegységek duplázódnak majd meg, de nem az egész rendszer, így talán nem fog 2 kártyának látszani és nem külső kapcsolat lesz a két kártya között, így a memóriában sem szerepelnek az adatok :) ráadásul az erőforrás is elméletben jobban eloszlik
    A két rendszek közti külömbség kb. mint ha van egy képed amibe 2 magos cpu van és van egy másik rendszered ami 2 kép fejenként 1-1 magos procival és külső gyors hálózaton összekötve amit egy szoftver (ati esetlben célhardver) köt össze és tesz úgy mind ha a 2 gép 1 lenne...
    Tehát ha az ati a felsőkategóriában tényleg két 38xx magot akar egybeépíteni és többmagosnak alkalmazni akkor komoly esélye lehet felsőkategóriában is :)
  • magus4884
    #29
    Ja jo oké én ugy fogtam fel hogy quatro sli aza két egybe épitet video karit rakhatunk be ami egyenlő 4videó karival:)De akkor nem igy van ha jol sejtem?Csak sima sli be lehet öket berakni ugye?
  • Abu85
    #28
    Hát a GF8 eladási adatokat nézve cseppet sem egyértelmű a helyzet.
    A fő probléma az, hogy elvileg nem lesz D3D10.1 kompatibilis a GF9600, és az nV továbbra is a G80 elveit fogja erőltetni ami tisztán látszik, hogy nem túl előnyös, mivel a többnyire GF8-hoz "alkalmazkodó" Crysis eléggé puritán sebeséggel fut egy VGA-s rendszeren maximum graffal.
    Ha valamelyik fejlesztő egész igényes (monjuk Crysis-hez hasonló) grafikát akar, akkor két egymással igencsak ellentétes választása van:
    Elkészíti a játékot GF8-hoz, ami ugyan eléggé VGA igényes lesz, de legalább mindkét gyártó rendszerén fut valahogy, max grafikára meg majd ott az SLI/CF.
    Elkészíti a játékot a D3D10 elveinek megfelően (amit ugyan sokat szídunk, de a Crysis az élő példa, hogy nem véletlen lettek bevezetve a reformok), ami jól fog futni egykártyás DX10-et ténylegesen támogató rendszeren, de az nV tulajok méregdrága játékszeréből egycsapásra falidíszt csinál.

    Most addig szopni fogunk amíg GF8 van a piacon.
  • Andrews2007
    #27
    Hát reméljük akkor az ATi irányába megy el a gaming majd :) Nem akarok 16 *is SLi-t és Cf-et. :(
  • Andrews2007
    #26
    Szerencsés kivétel a Blizzard ők tudnak optimalizálni és a Valve és az ID. A Doom 3 ment egy ati 7200 as tipusu integrált kártyával is 800*600 ban lowon 232 rammal és 2 ghz es procival laptopon nálunk annó. A HL2-t mindenki tudja mily jól megirt volt és a Blizzard is sokszor elmondta hogy a Starcradft 2 is keveset kér majd.
  • Abu85
    #25
    Úgy néz ki, hogy az nV lefossa a D3D10.1-et így a jövőben általános lesz, hogy CF/SLI rendszert követelnek majd a játékok max grafikához.
  • Abu85
    #24
    Nem mert a D3D10.1-hez teljesen új architektúra kell. Nem elég a G80 kozmetikázása.
  • Abu85
    #23
    A Microsoft pont azért vezette be a Dx10 "reformjait". Tudták Billék, hogy a régi D3D-s elvek mellett a Crysis szintű grafika kiüti a karikat. Egy dologgal nem számoltak, hogy az nV nem támogatja a D3D10 elveit.
  • dez
    #22
    Mellesleg itt nem 1x1GB vramról van szó, hanem 2x512MB-ról. 2 GPU dolgozik a maga 512MB-jában, SLI-ben (pl. felváltva egyik képkocka első GPU, köv. képkocka másik, és így tovább). Így az adatok mindkét 512MB vramban megvannak egyszer, azaz duplátottak. Ez kb. olyan, mintha 1x512MB ram lenne, egy (elméletileg) 2x gyorsabb GPU-val.
  • Stiff
    #21
    Szánalmasnak tartom azokat akik még mindig bedőlnek a vga és hardverpiac PC-s vonalának marketingkampányainak!Ez az egész semmi másról nem szól csak az Ő pénztárcájuk megrövidítéséről, és "gyanútlan" naiv fanok begyűjtéséről. A programozók (játék) már rég nem a régi szellemben ( pontosabban,szebben kontra energiatakarékosabban, kiváló játékélménnyel)alkotnak a falak mögött. Kizárólag a profitra hajtanak, és a minőség és gazdaságosság rég a háttérben nyomorog. Nem csoda, hát, ha maga a PC-s játékok élvezete az urihuncut fanok kizárólagos privilégiumá válik szép lassan, miközben megy a parasztvakítás. Ez a Crisys is egy vicces 'lerakat', csúcskat. TRIPLA SLI megfekszik tőle. A 'pc' fogalmának lejáratása megy folyamatosan. Egy cseppet sem vagyok meglepődve, ha a MAC térnyerése egyre erősebb, és az otthonokban ha játékról van szó, lassan fordul a kocka és a 'gondolkodók' a konzolt választanak.Nesze neked 9000-es mángorló :)
  • dez
    #20
    A 9800 GX2-ből nem lehet 4-et a gépbe rakni, mert már eleve 2db kártya SLI-ben, csak összeépítve.
  • dez
    #19
    A 9000-es sorozat erősen hajaz a 8000-esre, csak kisebb csíkszélességgel (és csökkentett szélességű memóriainterfésszel a felső kategóriában). Kivétel a 8800GT, és az 512MB-os 8800GTS, amik valójában már az új chipeken alapulnak.
  • magus4884
    #18
    ez az új nvidia 9800 gx ez egymagában már 1gb és gddr-3as ami isszonyu erős és ha már 2töt össze rakjuk hát akkor azmár 2gb gpu kapunk ami isszonyú erős és hát gép is kell alá:( És hát a quad sli-t is támogatja ami már 4videó karit foglal magába,hát ilyen kinek kell?az életbe kinem hasznája,a crysisel és a far cry 2vel semm. Szerintem a geforce 9800 bol böven elég 2 darab is és hát azal is már szerintem Nasa-i tejesitmény kell hozá hogy kipőrgesük normálisan,de hát mindegy ez az uj technologia és biztos lesznek majd olyan játékok amik majd meg tudják pörgetni de én azt mondom a sima sli még bőven elég:)
  • who am I 7
    #17
    Miről beszélsz?
    Kisebb csíkszél több tranyó, nagyobb teljesítmény >>> nagyobb fogyasztás.El ne magyarázd nekem, hogy a régi TNT2-től mennyivel kevesebbet eszik egy ilyen 8800 ultra.Igaz a teljesítménye is jóval nagyobb...De mivel X2es nyákok jönnek, el nem tudom kézelni, hogy egyre alacsonyabb lesz a fogyasztás majdnem duplázott tranyó mellett.Esetleg, ha 0.04mikron lenne.Talán...
    A crysisnak azért kevés a gtx egész egyszerűen, mert szarúl van optimalizálva, nem mellékesen maga a játék is egy darab ****.A far cry 2-ben bízok, hogy egy kicsit molyolnak vele a srácok, és átpörgetik párszor a kódokat, hogy ne atomerő mű kelljen hozzá, hanem egy 8800GT-n már lehessen 1600-ba szűrők nélkül esetleg egy olyan 40-50 fps-t elérni.Másrészt pedig, nem tudok olyan játékot mondani, amiért érdemes lenne felsőkategóriás kártyát venni.Egyszerűen dől a szar, absolute profit maximalizálás megy..sajnos.
  • neoG
    #16
    és a 4megabyte is parasztvagkítás volt a 3Dfxen az 1megás vidkarik korában?
  • Tinman #15
    Onnan indulj ki, hogy a 2 éves Quake 4-ben már volt olyan opció, hogy very high textures only 512 MB Vram or more...

    Gondoltam anno, hogy az X850XT PE 256 MB-al /nem volt egy lassú kártya!/ megnézem, hiszen High opció, minden egyéb maxon rezzenéstelenül futott.
    Feltettem, és megértettem... szebb lett a játék, és játszhatatlanul beszaggatott.

    Ez több mint 2 éve volt!

    Aztán nézd meg a lassan 2 éves Obliviont mindent maxra téve, quarls textúra pakkal... 512 MB VGRAM-al erősen nem az igazi. Egy GTX nem árt neki, ha minden körülmények között 30 FPS-re vágysz.

    Most itt a Crysis, ami Very High Beállítások mellett megfekteti a jelenlegi csúcs VGA-t.

    Nem mindenki szeret kompromisszumokat kötni. A másik dolog meg az, hogy akinek jut rá az vegye. Ha olcsó lesz én is veszem, hadd legyen még szebb akármelyik játék.
  • debut12
    #14
    kisebb csíkszél., alacsonyabb fogyasztás. na de mind1.
    Amúgy a kérdésre, hogy minek ilyen kártya. Crysis, Far Cry2, és amik még majd jönnek. Mert ugyebár a Crysisnak a 8800GTX is kevés.
  • davos80
    #13
    Nembeszélve az energiapazarlásról...
  • trogi
    #12
    Legalább azt a hatékonyságot kellene elérni, amit annó hozott a C64 és hozzá hasonló társai. Akkor nem kellene ilyen téglákat bepakolni a gépházba. Ráadásul négyet (lehetőség, pénz és agy szerint) ! Gratulálok. Biztos gyorsabban megy tőle a szövegszerkesztő meg az mp3 lejátszó, meg a net...
  • Dark Angel 666
    #11
    Gondolom parasztvakaitásnak
  • davos80
    #10
    Szánalom ez az egész.1GB DDR3...Mi a tökömnek.
  • davos80
    #9
    pécésjátékoknakleáldozott
  • OMax
    #8
    A 9800 asoknak lessz DX10.1-es tamogatasa?
  • who am I 7
    #7
    Jah, nem is értem, miért nem raknak a nyákra 10 gpu-t egyből, és akinek ez nem elég, vehet külön GPU - házat újabb 40 GPU-val a PC-je mellé....Szép új világ LOL fejleszteni már luxus.
  • Vorpal
    #6
    Te jó isten - ennyit a globális felmelegedésről.
  • Nightwish006
    #5
    Nemkell megvenni, és nem lezs lehuzás...
    Istenem -_-
  • bertino
    #4
    lehúzás lehúzás és megint csak lehúzás
  • Bircsike
    #3
    Hát ez még nem túl sok info, specifikációkra kíváncsibb lennék.