37
  • Davidus
    #37
    Csak annak aki nem hagyta ki az előző generációt;)
  • dez
    #36
    A temporalra mondod? 50-60fps fölött elméletileg már olyan, mintha "duplaszoros" AA lenne (A 2x 2xAA átlagolódik). Bár én pl. a 25-30Hz-es halvány bizsergést még látom. 100fps-nél már tényleg olyan, de kevés dolog megy annyival (LCD-n meg nem is lehet).
  • Akuma
    #35
    2* szebb bizti nem lesz, márpedig 2* és 4*-es között 2*szebbnek kellene lennie :p
  • Akuma
    #34
    igen azt :) de te egy nagyonnagy baromsággal hoztad össze!
  • dez
    #33
    magas
  • dez
    #32
    Vagy lehet, hogy a lamerek véletlenül bekapcsolták (vagy nem vették észre, hogy be van kapcsolva) az új temporal AA az ATI-nál... (Ez pl. 4xAA helyett 2xAA-t csinál, csak váltogatja a mintavétel helyét a páros és páratlan képkockák között. Csak magad fps-nél alkalmazható.) És így persze a mentett állóképen csak 2xAA van.
  • dez
    #31
    Ha teljesen egyforma beállítás van (2x v. 4x), akkor sebességben is és minőségben is minimális a különbség. Viszont egy újabb teszt-cikkben azt lehetett látni, hogy az ATI a beállítotthoz képest (4x) egy lépcsővel alacsonyabb (2x) AA-t csinált... Némi jóindulattal ez egy bugnak tűnik az új Control Centerben (de lehet, hogy csak abban az egy verzióban).
  • pafi
    #30
    Ez lesz a kafa! Az Ati-k majd nem mennek az Nvidia chipsetben (legalábbis dualban) aztán majd szép lassan eljutunk oda, hogy Nvidiához Nvidia chipset kell, Atihoz meg Ati...
    Na az lesz majd a szép
  • asysoft
    #29
    Lehet, hogy szebb AA-ja van a Geforce-oknak, de tényleg azt hiszed, hogy az FPS-visszaesés egyenes arányban van a minőséggel? Ennyi erővel kijelenthetjük, hogy TNT m64-ek mennyivel szebb képet adnak 32bites színmélység mellett, mint a mai csúcs-kártyák:D
  • Akuma
    #28
    tévedsz, szebb AA-t tud az új geforce, mint az új radeon, ezért is van, hogy használatukkor jobban visszaesik az fps, mint az új radeonoknál
  • archkoven
    #27
    "Egyszerűen az ATI súlyos techológiai lemaradásban van, amit még mindig nem tudott behozni"
    -ezt az őrültséget meg hol hallottad???
  • RpPRO
    #26
    "Az R520 grafikus processzor várhatóan 2005 első felében jelenik meg."

    Kizart dolog, h 2005 nyara elott megjelenjen az r520. Minek? Az nvidia 2006 elejere igeri a kov. grafikus processzorat. Addig lehet a jelenlegi szeriabol is profitalni.

    A masik: lehet, h. itt-ott majd lezeng egy-ket tesztkartya, amire majd verhetjuk, de az atlagfelhasznalo nem vesz r520-at 2005 OSZIG, az tuti.
    Hogy miert?
    Mert eloszor is atinak ki kell elegitenie a vele szerzodesben allo oem-eket. Van par. Mint a mostani szeriaval. Ha jol remlik, az x800xt-t bejelentettek majus vegen es szeptember vegere el is jutottunk oda, h mar lehet venni....
  • quentit
    #25
    Igen, nekem is rögtön a 3DFX jutott az eszembe.

    Egyszerűen az ATI súlyos techológiai lemaradásban van, amit még mindig nem tudott behozni. Ugyanaz, mint anno a Geforce FX-nél, ott is kb. 2 év kellett, mire megjelent a 9700-al kezdődő széria méltó ellenfele... (sebességben és tudásban)

    ATI rajongó voltam a 9700 óta, de az X800 egyértelműen hátrányos az Geforce-okkal szemben az ATI-nek jóval olcsóbban kellene adnia őket, hogy most megérje ATI-t venni... Egyetlen hátránya a Geforce szériának, hogy ha jól tudom nem tud gamma korrekt anti-aliasingot, noha az elforgatott rácsos AA-t már bevezették (és sokat is dobott) De ez már nem olyan nagy hátrány.

    Az ATI kamuzik, ennyi. Csak ő valószínűleg nem fog annyi ideig lemaradásban lenni, hogy anno a 3DFX. No meg a 2005 első fele azért nincs olyan messze.
  • NeoMaN
    #24
    Olyan nincs soha, hogy korai. A 3dfx is így nyilatkozott a 32 bitről és a TnL-ről....
  • hornbali
    #23
    "Az X800-as széria esetében erről szó sincs, kétszer gyorsabbak az előző szériánál és a tesztek zömében verik az nVidia 6800-asait."

    Helyesbítem a kijelentést:
    X800XT a tesztek többségében veri a 6800 Ultra-t
    6800 GT veri a tesztek többségében az X800Pro-t
  • Freddy TNT
    #22
    SLI...elgondolkodom, hogy nem lenne-e egyszerűbb egy másik slot a karin. aztán ha SLI-t akarsz(bár akkor nem tudom minek hívnák) akkor csak bepottyantanál egy ugyanolyan GPU-t +hűtőt rá és kész. Szerintem olcsóbb lenne(nem kell új alaplap, nem kell egy komplett kártya...stb) Nem okoskodni akarok, csak gondoltam megosztom ötletemet
  • archkoven
    #21
    Ha kihasználod az utóbbi időben készült játékok nyújtotta maximális grafikai lehetőségeket, magyarán textúra, geometria, árnyék, élsimítás stb. maxra, felbontás 1600x1200 akkor a különbség már közel sem pár FPS hanem ég és föld. Aki ennyire drága kártyát vesz az biztosan nem 1024-ben akar játszani közepes részletesség mellett, mert ott még valóban a processzor limitálja az elérhető FPS-eseket.
    Ez egyébként nem jelenti azt, hogy én is így csinálom, bár ha játékfüggő lennék akkor ki tudnék és ki is adnék egy vga-kártyára 100 ezret évente (és ezzel nyilván nem vagyok egyedül, jelenleg is többet költök ennél a hobbimra). Nem olcsó ez, de nem is olyan eszeveszetten nagy összeg ez mint ahogy ezt egyesek beállítják.
  • Gabest
    #20
    A fejlesztők meg vakon fejlesztenek másfél-két évig, mi? Vagy vesznek egy gf6800-at helyette :P
  • dez
    #19
    Meg aztán a legtöbb esetben pár fps a különbség a 9800 és az x800 között (általában proci limit van). Ha ez neked megér több tízezer forintot, csak hogy pár hónap múlva újra cserélhess... akkor anyagilag elég jól el vagy eresztve.

    (bocs, innen nem megy a "Válasz")
  • dez
    #18
    Régebbi és/vagy kevés shadert tartalmazó programok jól futottak rajta (pl. sok program ugyanolyan gyors volt egy 5600U-n, mint egy 4200-4400-ason), az ATI-megfelelőjük szintjén. Sok shader esetén, főleg ha PS2.0 volt, akkor kezdett lassulni, de akkor is csak annyira, hogy pl. egy 5900 leesett az 9600pro szintjére. Viszont valóban sok shadert tartalmazó játék most sincs sok, tavaly még kevesebb volt, tehát az ATI előnye inkább csak néhány kiemeltebb játék esetén jött ki. Szóval szerintem, mind az FX, mint az X sorozat igencsak átmeneti megoldás.
  • archkoven
    #17
    Az FX-eknek azért volt rossz hírük mivel a teszetek többségében jelentősen lassabbak voltak mint az ATI konkurens kártyái, néhány tesztben pedig különösen rosszul teljesítettek.
    Az X800-as széria esetében erről szó sincs, kétszer gyorsabbak az előző szériánál és a tesztek zömében verik az nVidia 6800-asait.
    Ha valakinek fontos a teljesesítmény annak egyáltalán nem értelmetlen 9800-ról X800-ra upgradelni, persze ez nem lesz olcsó mulatság, de a 9800-at sem adták annak idején ingyen.
    Az meg, hogy a PS3.0-át nem támogatja nem hiszem, hogy a közeljövőben nagy hiányosság lesz. Majd támogatja a következő széria amikor valóban szükség is lesz rá.
  • dez
    #16
    "Az ATI már a GeForce 6800 kártyák bemutatásakor kijelentette, hogy az új szabvány gyakorlatilag felesleges, hiszen egyetlen szoftver sem használja ki állítólagos előnyeit."

    Ilyet, így nem jelentett ki az ATI, ez csak a szerző fantáziájában él.

    Néha úgy érzem, az SG ilyen témájú cikkei ATI-részvényeseknek szóló jelentések.
  • dez
    #15
    (az "on" utáni rész lényegtelen)
  • arty
    #14
    szerencsére minimális ráfizetéssel sikerült ANNO a 9500PRO-ról átállni 9800ra. Én kizárt, hogy vegyek a mostani kártyákbol, ATI-t legalábbis semmiképpen.

    sztem kénytelen lesz az ATI olcsobban adni az x800as szériát, mert kölönben ugyanolyan rossz híre lesz a szériának, mint az FX-eké lett ...
  • arty
    #13
    Az ő 16bit-jükhöz nem is kellett. te valszeg csak nvidia/ATI-n láttál 16 bitet.
  • dez
    #12
    "jelentette ki John Carvill, az integrált és mobil termékekért felelős igazgató"

    Helyett:

    "PR Manager of ATi Technologies on ATi's plans for graphics and desktop chipsets"

    ...
  • Robin Hood
    #11
    A 3dfx szerint se kell 32 bit...
  • dez
    #10
    Ha 9800xx-ed van, akkor talán igaz. Más esetben nem biztos... Pl. az én 9600XT-m kezd lassúlcska lenni. Vagy pl. régebbi játékokban gyors még egy 5900x, de erősebben shaderezettek esetén hasonló a helyzet. Az ezeknél kisebb kártyákon meg már ma is kompromisszumokkal lehet játszani.
  • dez
    #9
    Pontosabban a nagyobb mag miatt eleve, amit az esetleges nehézségek még tovább növelhetnek.
  • dez
    #8
    Azért egy 6800xx-t nem kell majd lecserélni fél év múlva. De talán még egy 6600xx-t sem...

    Egy korábbi, általam már ide is bilinkelt ATI-főnök interjúból világosan kiderül, hogy leginkább azért nem vezették be már idén a SM3.0-t, mert úgy gondolták, nem lesz eléggé profitábilis 130nm-en, a túl nagy mag által okozott esetleges gyártási nehézségei miatt. (Tehát, az ATI most többet keres 1-1 eladott GPU-n, mint az nVidia. Persze naná, hogy nem adja olcsóbban.)
  • Akuma
    #7
    persze 1-2 év múlva már remélhetőleg "potom pénzért" meg lehet vásárólni a vga párját...
  • arty
    #6
    igy van, ezt a generációt célszerű kihagyni ...
  • Akuma
    #5
    sztem egáltalán nem volt hiba az sli bevezetése
    nem kötelező használni a technológiát, de lehet!
    pl 1-2 évig 1 vga-val nyomulok, majd melléteszek egy másikat és akkor semmit sem cseréltem csupán bővítettem, mint a memóriát szokás...
  • Petrolio
    #4
    "az ATI csak a következő generációs processzor megjelenése után fogja támogatni a szabványt. Az R520 grafikus processzor várhatóan 2005 első felében jelenik meg"
    Asszem ennek tükrében tök mindegy melyik az időtállóbb. Gondolom nVidia is ekkortájt fog kijönni új kártyával. Azér nem semmi, ha belegondoltok gyakorlatilag az új széria is tök fölösleges még, hisz egy 9800 Pro-val is elmegy a Doom 3 max grafikán. Fél év múlva meg jön az újabb GPU....no, akkor ki az a hülye, aki x800-as, vagy 6800as kártyát vesz? Vársz fél évet, addig úgyis elvagy még a régi kártyáddal, aztán mikor kijönnek az új kártyák, megveszed fele annyiért vmelyik mostani csúcskártyát.
  • [NST]Cifu
    #3
    Yepp, hiába támogatta a Radeon 9700 a PS2.0 idejekorán, ha a megjelenése utáni első évben csak a benchmarkok használták ki...
    Ettől függetlenül szerintem hiba volt az ATi részéről a PS3.0 kihagyása, hiszen ezzel az X800 kevésbé időtálló, mint a GeForce 6800 széria - a Radeon 9500/9700 család legszimpatikusabb vonása éppen az volt, hogy jó két évig csúcskártyák voltak, és nem kellett a cserén gondolkozni jó ideig...
  • Cat #2
    meg azért, mert egy komoly grafikájú játék fejlesztése legalább másfél-két év, szóval bőven ráérnek
  • Gabest
    #1
    Aha, azért nem kell, mert még nem használják ki a játékok. Viszont csak azért nem használják ki, mert még nincs mit kihasználni az ati-nál.