94
  • Szebi
    #94
    Koszi
    Itt szerbiaba a 2900xt ojan 230eur korul mozog
    http://www.easycomp.co.yu/cenovnik/komponente.pdf
    ez dinarba van,ha ft-ba akarod szorozd meg 3-al.
    Hat nem tudom,hogy itt mennyi lesz ha bejon,de gyanus,hogy bazi draga
  • And01
    #93
    Simán jobb, 8600gt×3 a teljesítményét illetően {körülbelül}
    250ft környékén mozog az euro
    kinti árak Ausztria,Németország
    3870 512gddr4:210euro-tól
    3850 512gddr3:170euro-tól
    Átszámítva drágábbak itthon sajnos,de ez talán változik 1-2héten belül!
    Ha tudsz várni akkor várj,mert ha több lesz az üzetekben /újdonság még/
    akkor a kinti árakhoz igazodik tehát olcsóbb lehet.
  • Szebi
    #92
    Az a hd3850,ami 50000ft,az ojan 200eur koruli ugye?Olvastam az asus oldalan,foleg a 3870-nek nagyon jo a specificationja.Gondolom lenyegbeli kulonbseget vennek eszre vele,a mostani 8600gt-vel?Amugy ez elott egy fx5200-om volt,tehat kihagytam jo par generaciot.Ez a ket ati kozott nagy a kulonbseg?
  • And01
    #91
    Érdemes lenne cserélni, de a helyedben az új radeonokból válogatnák.
    hd3850 50000-huf
    hd3870 62000-huf =2900xt teljesítménye:kis fogyasztás,kis hőterhelés+
    dx10.1 és 4.1 shader /modern, hosszú távon jobb vétel./
    A fenti árak remélhetően csökkenni fognak az még az idén.
  • Szebi
    #90
    SZiasztok
    Azt szeretnem megkerdezni,hogy erdemes e lenne szerintetek lecserelni a 8600gt-et(nem gts)egy ati 2900xt-re,mivel nem vagyok vele nagyon megelegedve.A jatekokban(pl crysis,stalker...stb)altalban mediumon mennek,ha mar egy kicsit nyomok rajta akkor mar szaggatnak.Az ok.hogy ez a 8600gt egy kozepkategoria,de azert lehetne nyomni egy picit,de akkor szaggat.Mondjuk hozzafizetessel +160euro es egy uj xt2900.HM?
  • Suker10
    #89
    A 6800 Ultra ellenfele volt az X850 XT, a 7800 ellenfele pedig az X1800.
  • dez
    #88
    Hogy lehet az, hogy nekem megy, neked meg nem?

    "Next-Generation Anti-Aliasing

    New anti-aliasing modes
    ...

    All existing functionality maintained
    - HDR + AA, Adaptive SSAA/MSAA, ..."
  • A1274815
    #87
    Nem segített. :(

    Elhiszem ha ide pbeidézed.
  • dez
    #86
    Talán kicsit túl korán iszol a medve bőrére. Az eddigi tesztek mind kamu.
  • dez
    #85
    Nyomj rá külön egy entert!
  • LackoMester
    #84
    ahogy,meg mihez képest teljesitt jól a kari-na ez részletkédés-magához képest lehet,h.jól-de a 8800 szériához képest nem...
    Sajnálom az AMD,h.az ATI-ba fektet,ezzel b...el magát
    azt majd az igazi tesztelök a felhasználók lesznek,de az ATI mostanság egyre távolabb van az NVidia-tol pedig volt idö amikor az ATI simán lesöpörte...
  • A1274815
    #83
    Még mindig csak azt a sárga békát látom. :(
  • dez
    #82
    Ja, nem, simánál MSTAA sincs.

    Az is lehet, hogy a texture AA teljesen külön van, tehát ezekben nincs benne, hanem az S az a részbeni supersample, az SS meg a fullos.
  • dez
    #81
    Vagyis inkább fordítva: nincs S = MSAA + MSTAA, "S" = MSAA + SSTAA, "SS" = SSAA + SSTAA.
  • dez
    #80
    (Olyan meg nincs, hogy "software".)
  • dez
    #79
    8x-osat már elvileg is tud. A 16x-os supersample AA meg a Quadro kártyáknak van fenntartva, nem játékokhoz való. Szerintem az S a supersampling AA multisample texture AA-val, az SS-nél meg mindkettő supersample (legalábbis részben). Itt nézelődj pl.: link
  • dez
    #78
    Hopsz, így már nem megy. Akkor így:
  • Dodo55
    #77
    Amúgy meg én be tudok állítani az NVTray-el 8x-os, és 16x-os FSAA-t is, pedig elméletileg nem is tud ilyet a 7950GT.
    De gyakorlatilag tud, mert látható különbség van a 4x-es, 8x-os, és 16x-os között, igaz a teljesítmény is brutálisan csökken.
    CSS-el próbáltam a de_inferno-n, és 100-150 FPS-em volt 4x-essel, 16x-ossal meg 30-40.

    Amúgy az S és az SS mit jelent a SZÁMx után?
    Mert pl a 4xSS szebb, mint a sima 4x, de az is kurva sok FPS-t eszik.

    Lehet, hogy a 8x, és a 16x nem hardware-es, és azért eszik olyan sok FPS-t?

    Ilyen módjaim vannak:
    Off
    2x
    2xSS
    2xQ
    4x
    4x Gamma
    4x Q-tap
    4x S
    4x SS
    6x S
    8x S
    8x
    16x S

    HM miközben ezt leírtam, azthiszem megfejtettem az S betű jelentését: software. Tehát akkor valószínüleg jól gondolom, hogy azért lassabb sokkal, mert software-es.
    Az SS meg gondolom SuperSampling.
    De ha van natív 8x-os mód, akkor nem tudom az miért olyan lassú. Lehet, hogy azért, mert nem tud olyat a kártyám, és ezért 8xS módba kapcsol a driver?
  • dez
    #76
    Nem lehet, hogy mégiscsak tévedsz? Íme egy R600-as slide, nézd meg az alsó sort:
  • A1274815
    #75
    A trükck programozói, ha játékban nem írták bele akkor nem fog menni.

    A trükk: a lebegőpontos framebuffer hagyományos 24/32bites színekké veló áttranszomárása közben a jelenet összes poligonját újra kirajzoljuk betartva a vágásokat (z-teszt, stencil-teszt, scisor-teszt, alpha-teszt, stb.) , úgy hogy bekapcsoljuk az FSAA-t de már nem lebegőpontos buffereken fog lefutni, hanem hagyományoson. Ez természetesen borzasztó teljesítményt emészt fel, ezért igényli a felső kategóriás hardware-t. ATI drivere, ha a vezérlő pultján kapcsolod be, akkor visszajátsza a jelenetet,az nvidia-ét nem tudom, nem rendelkezek felső kategóriás kártyával.


    Itt talász egy tech-demot 7900-hez amely tudja
    A tech-demo részletesebb leírása

    "Key Features

    HDR with Antialiasing - Using one of several techniques to achieve high dynamic-range (HDR) lighting simultaneously with multi-sample antialiasing, this scene is rich in bright lights, glows, and reflections, while still having beautifully soft antialiased edges."
  • Dodo55
    #74
    Akkor plz mondd el azt a trükközést(vagy adj valami linket), mert 7950GT-m van, és nagyon örülnék neki, ha vinné együtt az SM3 HDR-t és az AA-t.
  • A1274815
    #73
    "Számos helyen azt olvastam, az ATI-k kb. az X1800-tól felfelé tudják együtt."

    Némi trükközéssel igen, de ugyan azzal a trükkel a Geforce 7900-tól fölfele is. DX10-es kártyáknál, már nem kell semmilyen trüközés.

    "Egyébként az ATI X1000-es sorozata nem előbb volt véletlenül, mint az GF7?"

    Nem, késöbb. A Gefroce 7800 GTX-re válaszúl akkoriban az ATI az X850 XT-ét adta ki. Kb. 3-6 hónappal késöbb jött ki az X1800 XT.
  • dez
    #72
    Számos helyen azt olvastam, az ATI-k kb. az X1800-tól felfelé tudják együtt. Egyébként az ATI X1000-es sorozata nem előbb volt véletlenül, mint az GF7?
  • Ragnaar
    #71
    Egy oldalon találtam HD2900XTvs8800GTX Crysis demo tesztet. Bekapcsolt szűrőkkel és szűrők nélkül is a HD2900XT jobb kb.8%- al. Mondjuk nem kizárt, hogy fake.
    HD2900XTvs8800GTX_Crysis_demo
  • Dodo55
    #70
    Nem, mert ha dynamic lightning-ra állítom, tehát a HDR is bekapcsolódik, akkor nem bírok semmi AA-t beállítani.
    Szóval k*rva sok értelme volt software-es AA-t csinálni, ha az ugyanúgy nem megy pre-G80 kártyákkal.

    Amúgy a Valve meg tudta csinálni a dolgot, csak azért, mert Newell szereti az FSAA-t, de 7800GTX-e van, és az nem tud szabványos HDR-el FSAA-t, de ő azt mondta, hogy oldják meg, hogy menjen egyszerre a dolog. És megoldották, kicsit nem szabványos lett a HDR, de szép(sőt szerintem az eddigi legszebb HDR a Source Engine-é), és kevés erőforrást eszik.
    És simán megy vele a hardware-es FSAA, ami az én VGA-m esetében csak 1-2 fps esést jelent, ha feltolom 4x-esre.
  • A1274815
    #69
    "Nem lehet, hogy csak a G80 előtti Nvidia cuccokon szoftveres? Lévén azok nem tudnak még együtt FSAA-t és HDR-t, de a G80 már igen."

    Az első DX9 gereáció már támogatta HDR-t félig meddig, de gyártonként másképpen és egyik se teljesen: GeforceFX-es sorozat kizárólag 32bites lebegőpont csatornánként, kizárólag texturerect lebegőpontos 32bites textúrák (a síma 2D-és textúrát is rendesen támogatta, csak marha lassú volt vele), ATI 9500,9700,9600,9800 sorozat pedig 16bites lebegőpont csatronánként, kizárólag 2D-és textúrával, egyik akkori kártya se tudta bilinear vagy trilinear filterrel kezelni a lebegő pontos textúrákat és az FSAA-at sem, mindegyiket pixel shaderben kellet impelementálni. Geforece 6-os sorozat végre már tudja mindkét HDR támogatás+rendelkezik a non power of 2 textúra támogatással is, azomban még mindig hiányzik a lebegőpontos textúra szűrés és az FSAA. Az ATI Xyz0 sorozatánál csak annyí változás történt, hogy már megy rendesen a 32bites lebegőpontos dolgok is, de a többi még hiányzik belőle. Geforce 7-es sorozat teljes körű 16/32bites lebegőpontos textúra támogatás (bilinear, trilinear és anisotróp szőrővel) FSAA még mindig hiányzik (az nvidia szerint még túl költséges megvalósítani a lebegőpontos FSAA-t). ATI X1yz0-ás sorozata végre rendelkezik ugyan azzal a támogatással HDR színtjén, mint a Geforce 7-es sorozat.

    DX10-es kártya sorozat mindkét gyártónál végre van lebegőpontos FSAA!
    Viszont HDR normális megjelenítéséhez szükséges pixel postprocessing mégmindig pixel és vertex shaderek segítségével lehet csak és ez soha sem fog változni, sőt az autoexposure számításhoz nélkülőzhetelen a CPU is!!! ( A jelenlegi GPU-k architektúrájuk miatt erre a célra nem optimálisak)
  • dez
    #68
    Nem lehet, hogy csak a G80 előtti Nvidia cuccokon szoftveres? Lévén azok nem tudnak még együtt FSAA-t és HDR-t, de a G80 már igen.
  • dez
    #67
    Ezt már 1x megbeszéltük. A tévéadás (mozifilmeket leszámítva) 50 mozgásfázis/seces (különböznek a páros és páratlan félképek). A sportközvetítések nézhetetlenek lennének 25 fázis/seccel. A mozifilmek 24/25 fps-e teljesen jól látható, ugrál az egész (csak a motion blur valamennyit javít rajta). De ettől olyan filmes, álomszerű. Kis gyakorlattal az 50 vs. 100 fps is megkülönböztethető, az utóbbi sokkal folyamatosabb.
  • A1274815
    #66
    A quake3 motor még nem is volt annyíra bugos, mint a HL1-ben használt módosított quake/quake2 motor. Nem az a probléma, hogy nem látod folytonosnak, hanem hogy elcsesződött az egér kezelése. Source motornál már elég sokat javult ezen a helyzet, de még nem érte el quake3 motor-t ezen a téren.
  • Dodo55
    #65
    Lehetséges.
    Akkor ez megmagyarázna sok dolgot :)

    Én olyan 150-ig tudok különbséget tenni, a felett már nem.

    CSS-el én tick 100-as szerveren szoktam játszani, ami másodpercenkénti 100 frissítést jelent, tehát a tökéletes játékhoz legalább 100 FPS kell egy tickrate 100-as szerveren.
    Asszem ezt még Borg mondta valamikor.
  • Sanyix
    #64
    Akkor te nyilván nem az emberi fajhoz tartozol, mert az ember 50 képkockát tud megkülönböztetni másodpercenként. 25 (mozifilm, tv fps) már folyamatosnak látszik, bár még észrevehető hogy néha kevés.

    Bugos szar quake 3 motoros játéknál még érthető lenne hogy sok fps kell, mert nagyobbat lehet ugrani nagyobb fps-el :DDD de úgytudom source-ban nincs ilyen bug.
  • Inquisitor
    #63
    Megjegyzés: A DailyTech tesztjében szereplő számoknak volt ki utánanézett. Kérem szépen a tesztelt játékokban az X1950XT is gyorsabb, ergo vagy kamu a teszt, vagy a driverben le volt tiltva a Shader procik legalább fele ...
  • Inquisitor
    #62
    "Egyedül a Stalker volt ahol az FSAA magasabbra tolása egy csomó FPS-t evett, bár szerintem az a Stalker bugja, és nem a VGA-m gyengesége."

    Ez nem bug, a Stalker SZOFTVERES AA-t használ, csoda lenne ha nem lassulna :)
    Viszont ezért röhögtünk, hogy GF8800GTX-et, meg 8600GTS-t Stalker + FSAA-val teszteltek.
  • Dodo55
    #61
    Hát igen, a filterek.
    A 6600GT(128MB, 128bit)-mmel ha bekapcsolatam az FSAA-t, meg az anisotropic filteringet, akkor 30% FPS esés volt kb az újabb játékoknál.

    Most a 7950GT(512MB, 256bit)-mmel egyszerűen szemmel észre se vehető az FPS romlás, általában 2-3 FPS csökkenés van maximum.
    Egyedül a Stalker volt ahol az FSAA magasabbra tolása egy csomó FPS-t evett, bár szerintem az a Stalker bugja, és nem a VGA-m gyengesége.
  • Ragnaar
    #60
    Nem rossz ez , viszont jó lenne tudni , hogy bekapcsolt képminőségjavítókkal mit mennek a kártyák. Ugyanis a régi architektúránál a memőria mennyisége nagy felbontásban eléggé befolyásolta a kártya sebességét bekapcsolt FSAA , anizotróp szűrők esetén. Tehát én azért megnéznék néhány 1600x1200 4xFSAA 16x anizotrop filteringes tesztet is. Directx 10 - et meg a Crys-al lehet tesztelni. Ha maradna a 15-30% - os különbség , tuti , hogy HD 2900XT-t vennék. A driver meg ugyanúgy hozzátartozik a termékhez , mint maga a vas , tehát ha az ATI driverei jobbak , akkor az ATI kártya jobb. Az más , hogy a driverek gyorsabban módosíthatóak , fejleszthetőek , mint maga a hardware.
  • rotator
    #59
    Fake teszt? Bazzz...
  • who am I 7
    #58
    Mit foglalkozol vele?hülyeszegény....akinek ennyire telik az iQból azt csak sajnálni tudom.
  • dez
    #57
    Ugye, ha már az elmúlt években nem sikerült egy értelmes technikai tartalmú hozzászólást sem gyártanod, legalább jól fikázd le a többiekét... Ez az intelligens, felnőttes magatartás. Tegyük hozzá: szerinted.
  • archkoven
    #56
    Öröm olvasni a sok gyermekkorú szakértő véleményet! Tudálékosság ezerrel!
  • dez
    #55
    Felejtsétek el ezt a 320 shadert. A 64 Vector5 shadernek semmi köze holmi 320 scalar shaderhez, épp az a lényege, hogy nem scalar. Esetleg azt lehet mondani, hogy kb. ahhoz lenne hasonlítható, de ez csak némely esetben igaz. Különben szerintem az XT-ben nem 64 van/működik, mint az XTX-ben.