78
  • NEXUS6
    #38
    Mindíg ezek a negatív hullámok!;)

    Amúgy én is indítottam már el Doom3-at PCI-os (nem expressz!!!) GF2MX-en!!;))) Hát a sebbel voltak gondjai, de a garfika kb ugyan az volt mint pl egy rad 9600-on. És ha belegondolsz, ha a 64MB Rammal "megáldott" xboxra is áttudták írni, akkor talán ez nem is olyan nagy csoda!
  • archkoven
    #37
    Ugye ebben a baromságban amit beszélsz te sem hiszel?
  • Sanyix
    #36
    Hidd el akár egy gf4-től is lehet olyan grafikát kapni, mint egy sokkal újabb videokártyával, már írtam, csak akarni kell, ez a lényeg.
    Sajnálom hogy elhiszed amivel beetetik az embereket a hardvergyártók, de az az igazság amit írtam. A mai videokártyák képességeiből jó esetben maxmimum 75%-ot használnak ki a játékok, mert nem optimalizálnak a kártyákra(pazarolják az erőforrásokat), és nem is fognak. Ha teljesen megállna a fejlődés, akkor is egyre szebb játékok jönnének ki, mert egyre jobban ki tudnák használni a hardver adta lehetőséget. Remek példák ilyenre a konzolok. Ugyan az a hardver van bennük mégis fejlődik a grafikája a rájuk írt játékoknak.
    A videochipgyártók nem azért "fejlesztenek", hogy nekünk minél jobb legyen, hanem azért hogy minél jobban lehúzzanak minket...
  • item
    #35
    "A G80, illetve az erre épülő kártyák az egyesített shader megoldásra épülnek, az órajelet illetően az 1/2,5 GHz-es párosítás valószínű, és számíthatunk a DirectX 10, WGF 2.0 és Shader Model 4.0 támogatásra.
    "
    Hát nemtudom, elég izmos adatok ezek.

    Ez az egységesített shader architektúra meg érdekes lesz,csak azt nem értem, hogy eddig miért nem rukkoltak elő vele, csak azt ne mondjátok hogy ez annyira új dolog??! Eddig a "kinek több a pipelinje,meg pixel,vertex egysége" volt a menő, most jön az hogy bebee az enyémben 128 shader a tiedben megcsak 100 shader van ezért a tied gagyibb. Amúgy ezt az egységesített shader dolgot vágják a programozók?? Ha jól tudom a nextgen konzolok is ezt használják majd, illetve a X360 as már nyomja.
  • [NST]Cifu
    #34
    Gf7800GS AGP bejelentés.
  • [NST]Cifu
    #33
    2.1.: Márpedig el kell ismerni, hogy egy Gf4Ti-től sose fogsz olyan grafikát kapni, mint egy Gf6x00 vagy Radeon X1x00 videókártyától.
    2.2.: Hány játék fejlesztőgárda áll több, mint 100 emberből? Egy-két MMORPG gárdája, esetleg. Az optimalizációt, bugvadászatot meg nem a HW gyártók akadályozzák, hanem a kiadási határidők. Egy ki sem adott játék nem termel hasznot, és a fejlesztőgárdák többsége az egyre összetettebb grafikai motorok miatt egyre több és több időt kénytelenek szánni a fejlesztésekre. Még a Quake 4-nél buggyant ki a Raven-ből, hogy míg a Quake 3 motornál egy grafikus naponta négy textúrát tudott megcsinálni, a Doom 3 motornál egy grafikus napi egy textúrát tudott prezentálni az összetettebb munka és nagyobb felbontás miatt. Ugyanez igaz a programozók munkájára is. Egyre összetettebb grafikai motorok, fizikai motorok, amik rengeteg munkát jelentenek...
  • [NST]Cifu
    #32
    Az már legyen a Sony baja. :)
    Egyébként nem tudom, mi ez a nagy hajcihő. Emlékszem anno is ez volt a Voodoo 1 / Voodoo 2 / Voodoo 3, TnT / TnT2, Matrox G400, stb. csatában. Az a videókari cserélgetés már évek óta megy, lassan már 10 éve, ha jól számolom. :)

    X3: Reunion topic <- nézz be. Egyébként szerintem nagyon brutális grafikája van, most már szépen lassan a nagyobb bugokat is kijavítják benne, de persze el kell fogadni, hogy még egy Gf6800GT-n sincs túl folyamatos mozgás a nagy csaták alkalmával. De túlzott realitásokat ettől a játéktól se várj... Hejj, egy I-War háromra vágyom én... :)
  • Evil Merodak
    #31
    Remélem hamarosan lesz lesz GF 7800 AGP-re így majd nem kell lecserélnem a PCI-s bővítőkártyáimat.
  • billxxx
    #30
    nem rossz a fejlödés mert pénzük származik belőle de mégis feleslegesnek tartom..........
    A far cry 2 ről tud valaki valamit?
  • NEXUS6
    #29
    Hát igen. Erre jó példa a MotoGP3. Vagy 30%-kal gyorsabb mint a 2 volt, amellett, hogy jobban is néz ki.
  • Sanyix
    #28
    2.1: Én egy ideje már nem hiszem el ezt amit a játékgyártók, hardvergyártók, mondanak, xar hardveren is nézhet ki jól valami, csak akarás kérdése, de ha akarnák, nem lenne nagy üzlet, mert nem vásárolnának jópénzé videjókártyákat. Igazából a fejlődés eléggé lelassult az utóbbi időben, ezért nyúltak a hardvergyártók a "képességekhez" ha nincs megfelelő "képesség" akkor nem olyan szép/nem indul a játék, ügyes húzás, hogy kitalált, valótlan ürügyekkel rábírják a felhasználót az új hardvervásárlásra. (lehet azt mondani hogy de ezek valós képességek, de ezt a hardvergyártók etetik be nekünk, és sajnos nagyon sokan elhiszik).
    2.2: Igen tényleg szigorú határidők vannak, és összetettek a játékok, DE hányan is dolgoznak egy nagyobb játékon? Hát akár több mint 100-an. Sztem ennyi ember simán tudna bugok vadászni, optimalizálni, de nemteszik, mert a hardvergyártó(videochipgyártóra gondolok főleg) akivel jó kapcsolatban vannak(fizetnek a fejlesztőnek a nagyobb hardverkövetelményért).
    De mindez látszik is a játékok minőségén...
  • NEXUS6
    #27
    Háj Cifu!

    OFF
    Az X3-al én is szemezek, jobban sikerült mint az X2?
    Mert amikor abban nekimentem a bolygóobjektnek és lepattantam mint a billiárdgolyó, akkor kicsit deinstalláltam az egészet.

    Szal nálam még mindíg a Frontier a standard realitásból (persze az I-war2 se volt rosz), és ha ez is csak amolyan ürtaxizás, amilyen az előző rész is volt, akkor maradok annyiban, hogy néha lefuttatom a demóját és megcsodálom a grafikát.;(
    ON
  • NEXUS6
    #26
    Bakkerom az előző generáció még meg sem melegedett a gépekben, a Sony sem tudta még kiadni az arra épülő konzolját sem!
  • [NST]Cifu
    #25
    Két dologban nem értünk egyet:
    1.1.: Például a FEAR, a Lock-On vagy a X3:Reunion játékokkal max. részletesség mellett nem bírkózik meg egy Radeon 9800Pro.
    1.2.: Másfelől az élsimitás és a textúraszűrés egyértelműen grafikai látvány növelő effektus, nézz meg egy FPS-t textúraszűrés nélkül, utána meg 16x Anisotropic szűréssel. Eléggé mellbevágó a különbség.
    2.1.: Az egyre nagyobb hardverigény a max. részletesség mellett nem a programozók bénasága, hanem egyszerűen az új hardverek kihasználása. Ne mond, hogy nem néz ki jobban a DoD:Source például egy Gf6600+ kártyán, mint egy Gf4Ti kártyán. Jobban néz ki. Ez egyszerű fejlődés, kihasználják az újabb effekteket, HW és SW lehetőséget. Ez a másik fele a dolognak
    2.2.: A programozók a legtöbb esetben a szigorú határidők áldozatai. Egyre öszetettebb és összetetebb a játékok grafikai motorja, amelynek menet közben is tartania kell a lépést a fejlődéssel. Ha a kiadó és a fejlesztő kellő figyelmet fordít a bugvadászatra, akkor egy kiforrot, jól működő motor lesz az eredménye. Ha viszont nem, akkor egy bugos, optimalizálatlan játék lesz az eredménye.
  • Sanyix
    #24
    A teljes grafikai részletesség sztem a játékban beállított high beállításokat jelenti, sztem az élsimítás meg az anisoizé szűrés az már plusz grafika. De egy 9800 elbánik a sima high-al a legtöbb játékkal, szűrők nélkül, sőt az én 9600prom is. Egyébként a nagyobb hardverigény csak a programozók bénaságát bizonyítja, nem dicsőség, inkább szégyen.
  • SYB
    #23
    Jeleneleg egy Savage3D 8 megás kártya dolgozik a gépemben. Most tervezem lecserélni TNT2-re, mert szegény Savage elég bugos, 3D-ben fagy, meg egy-két hülyesége van. Szerintetek nagyon le vagyok maradva?
  • HUmanEmber41st
    #22
    Ehh én meg kapok még 1 6600-at, aztán egy darabig elleszek velük
  • Turmoil
    #21
    Jól beszél az ember. Nagyjából hasonló gondolatok által vezérelve most készülök 9800 körüli kártyát venni a 9000 helyett...
  • [NST]Cifu
    #20
    Hát azért például az X3:Reunion esetén nem 120 vs. 170 fps lenne a különbség, hanem mondjuk 20 vs. 25fps.
  • [NST]Cifu
    #19
    Olvasd el még 1x mit írtam. Mert nem azt, hogy rohanni kell mindig a legújabb videókarikat megvenni...

    Amúgy ha az ember rá van kattanva egy játékra, akkor nem vígasztalja, hogy van még "1000 jó játék", ha az, amivel játszana, nem fut rendesen...
  • Aspyrin
    #18
    LOL éppen ez az szerintem bárki aki dolgozik mindig tuna venni csúcskártyát de mi a fasz értelme lenne
    Ezzel abszolút de nem értek egyet. Jómagam is kb. 10 éve dolgozom de azért nem engedhetek meg magamnak mondjuk három havonta 130.000Ft kiadást videokártyára, sőt, igencsak van máshová tenni a pénzt..
    Egy valamire jók a legújabbak nagyképüsködni
    Pont ezt mondtam én is.
  • grebber
    #17
    Hát nem is ma jönnek ki a kártyák mire ezek kijönnek Driver tuti lesz , game hát a Crysistől függ mert ő lesz az első DX10-es.
  • grebber
    #16
    LOL éppen ez az szerintem bárki aki dolgozik mindig tuna venni csúcskártyát de mi a fasz értelme lenne.
    Egy valamire jók a legújabbak nagyképüsködni.
    Pl 6800Ultra tulaj ha cserélne most pl 7800GTX-re mi értelme lenne . Mert szerintem kurvára mindegy hogy egy game 120 vagy 170 FPS-el megy.

    De legalább az Ati/Nvidia megszedi magát.
  • Enlight
    #15
    Van 1000 más jó játék, meg a 4-5 nagyágyú,amin esetleg nem ft maxon, csak azokért meg szerintem nem éri meg vga-t cserélni, ahhoz nagyon fanatikusnak kell lenni.
    nyaSGem: ezt a 3DM őrületet én sem értem, jómagam kemény 600 pontot kapok a 06-ban, de asszem a FEAR-en és a BF2-őn kívül alig találtam olyat, ami ne futna jól részletes beállításokkal (persze nekem nincs 21"-es tft-m, szal megelégszem 800x600-zal).
  • nyaSGem
    #14
    Látom a parasztvakítás megy folyamatosan.
    A játékok meg egyre szarabbak, egyre kevesebb a hangulat.
    De a sok hülye megveszi az új kártyát, mert megéri azt a 60E Ft-os kiadást, hogy a 3DMark teszt az új kártya behelyezése után már nem 12600 pontot ér el, hanem 12736-ot...
  • [NST]Cifu
    #13
    Elfutni elfut, de a "top" játékok többsége alatt azért nem teljes grafikai részletesség mellett..
  • Lord Zax
    #12
    Nemtom mit vagytok ugy oda ezzel az Ati a jobb, meg nvidia a jobb. Meddig jobb? 1-2 honapig amig a rivális ki nem ad egy jbbat, mindig is igy volt.
    Kiad az egyik egy tachnologiát, pár honapra rá ellopják az ötleteket, és kiad a másik egy jobbat.
    Egyébként addig örüljünk amig verseny van, bár igyis elég gáz hogy csak 2 cég között, ugyanaz min ta procikánl, amd-intel. Igy legalább van verseny, fejlödés, és árverseny.
    Amugy ezekhez az uj technologiáju kártyákhoz, se driver, se direct x, se program nincs még ami kihasználná.
    Pl egyik burzsuly haverom rendelt x1900-at, és azt irta hogy még normális driver sincs hozzá, ugyhogy a az összehasonlitásos teszteket sem tudom mire alapozzák még.
  • Aspyrin
    #11
    Dehogynem, ha nincsenek százezreid párhavonta egy új videokarira akkor lemaradsz.. A maximalizmus nem itt kezdődik, ez csak blődség.
  • Aspyrin
    #10
    Azért nem ilyen rossz a helyzet. Jómagam két évig egy fx5900 xt-t használtam ami már akkoriban sem volt elérhetetlenül drága és a mai játékok is elszaladgálnak vele(igaz, most váltottam egy x800 guru-ra de azt hiszem az elkövetkező két évben nem leszek szomorú miatta).
  • grebber
    #9
    Az nem gazdag ember az csak hülye maximalista.
  • grebber
    #8
    Heh kell is az a jó Dx10-es VGA. CRYSIS powa!!!
  • okosszöszi26
    #7
    Ki győzi követni ezeket? Mikor megvettem az X800-at, ez volt a legfrissebb generáció. úgy számoltam 1 évig legalább húznia kell a gépben. Mire lejár, már 3 generációval előrébb járnak?
    Az a gazdag ember aki mindig a legújabbra hajt nem is mer venni semmit, mert mire elhatározásra jut, már azt hallja, hogy mindjárt itt a következő mégjobbmégszebb generáció. OK. Akkor azt még megvárja, de mire az piacra kerül, már megint mindjárt jön a köv. és így tovább.
    Ki is dobom mindjárt a gépet, és inkább a kertészkedést választom hobbinak.
  • Enlight
    #6
    Nekem teljesen mindegy hogy éppen ki áll jobban a versengésben, ha éppen ati a jobb, akkor azt veszek, ha meg nvidia, akkor azt, szerintem felesleges egy márkához kötődni.
    Amúgy egy 9800 Pro-n a mai játékok 95%-a tökéletesen elfut, pedig ez már majdnem 3 éves kártya:-)
  • Praetor
    #5
    Úgy érzem, hogy az ati kicsit le van maradva, hiszen a legutóbb bejelentett csúcskártya azért nem alázta az nvidia zászlóshajóját.

    De az is lehet, hogy az nvidia előnye csak ideiglenes, és az ati technológiai fejlesztése idővel nagy előnyt fog neki jelenteni.

    Jó lenne ha valami igazán ütőset tudna alkotni az ati csapata.
  • Enlight
    #4
    első DX9-es VGA a Radeon 9700 Pro volt ha jól tudom, valamikor 2002 nyarán talán. Ha ezek idén kijönnek, akkor 4 év, de mire dx10-es játékot látunk, lesz az 5 is.
  • vg
    #3
    Tulajdonképpen ez a generáció lesz majd a következő a DX9 után... Hány év is telt el azóta?
  • vg
    #2
    Jah, nagyon durva!
  • Enlight
    #1
    Jesszusom, hova rohannak ezek, én még éppen jól elvagyok egy 9600XT-vel :-)