Jól teljesít az AMD Radeon HD 2900 XT

Oldal 1 / 2Következő →

Jelentkezz be a hozzászóláshoz.

#94
Koszi
Itt szerbiaba a 2900xt ojan 230eur korul mozog
http://www.easycomp.co.yu/cenovnik/komponente.pdf
ez dinarba van,ha ft-ba akarod szorozd meg 3-al.
Hat nem tudom,hogy itt mennyi lesz ha bejon,de gyanus,hogy bazi draga

#93
Simán jobb, 8600gt×3 a teljesítményét illetõen {körülbelül}
250ft környékén mozog az euro
kinti árak Ausztria,Németország
3870 512gddr4:210euro-tól
3850 512gddr3:170euro-tól
Átszámítva drágábbak itthon sajnos,de ez talán változik 1-2héten belül!
Ha tudsz várni akkor várj,mert ha több lesz az üzetekben /újdonság még/
akkor a kinti árakhoz igazodik tehát olcsóbb lehet.
#92
Az a hd3850,ami 50000ft,az ojan 200eur koruli ugye?Olvastam az asus oldalan,foleg a 3870-nek nagyon jo a specificationja.Gondolom lenyegbeli kulonbseget vennek eszre vele,a mostani 8600gt-vel?Amugy ez elott egy fx5200-om volt,tehat kihagytam jo par generaciot.Ez a ket ati kozott nagy a kulonbseg?

#91
Érdemes lenne cserélni, de a helyedben az új radeonokból válogatnák.
hd3850 50000-huf
hd3870 62000-huf =2900xt teljesítménye:kis fogyasztás,kis hõterhelés+
dx10.1 és 4.1 shader /modern, hosszú távon jobb vétel./
A fenti árak remélhetõen csökkenni fognak az még az idén.
#90
SZiasztok
Azt szeretnem megkerdezni,hogy erdemes e lenne szerintetek lecserelni a 8600gt-et(nem gts)egy ati 2900xt-re,mivel nem vagyok vele nagyon megelegedve.A jatekokban(pl crysis,stalker...stb)altalban mediumon mennek,ha mar egy kicsit nyomok rajta akkor mar szaggatnak.Az ok.hogy ez a 8600gt egy kozepkategoria,de azert lehetne nyomni egy picit,de akkor szaggat.Mondjuk hozzafizetessel +160euro es egy uj xt2900.HM?

#89
A 6800 Ultra ellenfele volt az X850 XT, a 7800 ellenfele pedig az X1800. <#ejnye1><#vigyor>

#88
Hogy lehet az, hogy nekem megy, neked meg nem? <#conf>

"Next-Generation Anti-Aliasing

New anti-aliasing modes
...

All existing functionality maintained
- HDR + AA, Adaptive SSAA/MSAA, ..."

#87
Nem segített. :(

Elhiszem ha ide pbeidézed.

#86
Talán kicsit túl korán iszol a medve bõrére. Az eddigi tesztek mind kamu.

#85
Nyomj rá külön egy entert!

LackoMester
#84
ahogy,meg mihez képest teljesitt jól a kari-na ez részletkédés-magához képest lehet,h.jól-de a 8800 szériához képest nem...
Sajnálom az AMD,h.az ATI-ba fektet,ezzel b...el magát
azt majd az igazi tesztelök a felhasználók lesznek,de az ATI mostanság egyre távolabb van az NVidia-tol pedig volt idö amikor az ATI simán lesöpörte...

élet a legjobb méreg

#83
Még mindig csak azt a sárga békát látom. :(

#82
Ja, nem, simánál MSTAA sincs.

Az is lehet, hogy a texture AA teljesen külön van, tehát ezekben nincs benne, hanem az S az a részbeni supersample, az SS meg a fullos.

#81
Vagyis inkább fordítva: nincs S = MSAA + MSTAA, "S" = MSAA + SSTAA, "SS" = SSAA + SSTAA.

#80
(Olyan meg nincs, hogy "software".)

#79
8x-osat már elvileg is tud. A 16x-os supersample AA meg a Quadro kártyáknak van fenntartva, nem játékokhoz való. Szerintem az S a supersampling AA multisample texture AA-val, az SS-nél meg mindkettõ supersample (legalábbis részben). Itt nézelõdj pl.: link

#78
Hopsz, így már nem megy. Akkor így: http://img442.imageshack.us/img442/92/newjp2.jpg

#77
Amúgy meg én be tudok állítani az NVTray-el 8x-os, és 16x-os FSAA-t is, pedig elméletileg nem is tud ilyet a 7950GT.
De gyakorlatilag tud, mert látható különbség van a 4x-es, 8x-os, és 16x-os között, igaz a teljesítmény is brutálisan csökken.
CSS-el próbáltam a de_inferno-n, és 100-150 FPS-em volt 4x-essel, 16x-ossal meg 30-40.

Amúgy az S és az SS mit jelent a SZÁMx után?
Mert pl a 4xSS szebb, mint a sima 4x, de az is kurva sok FPS-t eszik.

Lehet, hogy a 8x, és a 16x nem hardware-es, és azért eszik olyan sok FPS-t?

Ilyen módjaim vannak:
Off
2x
2xSS
2xQ
4x
4x Gamma
4x Q-tap
4x S
4x SS
6x S
8x S
8x
16x S

HM miközben ezt leírtam, azthiszem megfejtettem az S betû jelentését: software. Tehát akkor valószínüleg jól gondolom, hogy azért lassabb sokkal, mert software-es.
Az SS meg gondolom SuperSampling.
De ha van natív 8x-os mód, akkor nem tudom az miért olyan lassú. Lehet, hogy azért, mert nem tud olyat a kártyám, és ezért 8xS módba kapcsol a driver?
#76
Nem lehet, hogy mégiscsak tévedsz? Íme egy R600-as slide, nézd meg az alsó sort:

#75
A trükck programozói, ha játékban nem írták bele akkor nem fog menni.

A trükk: a lebegõpontos framebuffer hagyományos 24/32bites színekké veló áttranszomárása közben a jelenet összes poligonját újra kirajzoljuk betartva a vágásokat (z-teszt, stencil-teszt, scisor-teszt, alpha-teszt, stb.) , úgy hogy bekapcsoljuk az FSAA-t de már nem lebegõpontos buffereken fog lefutni, hanem hagyományoson. Ez természetesen borzasztó teljesítményt emészt fel, ezért igényli a felsõ kategóriás hardware-t. ATI drivere, ha a vezérlõ pultján kapcsolod be, akkor visszajátsza a jelenetet,az nvidia-ét nem tudom, nem rendelkezek felsõ kategóriás kártyával.


Itt talász egy tech-demot 7900-hez amely tudja
A tech-demo részletesebb leírása

"Key Features

HDR with Antialiasing - Using one of several techniques to achieve high dynamic-range (HDR) lighting simultaneously with multi-sample antialiasing, this scene is rich in bright lights, glows, and reflections, while still having beautifully soft antialiased edges."

#74
Akkor plz mondd el azt a trükközést(vagy adj valami linket), mert 7950GT-m van, és nagyon örülnék neki, ha vinné együtt az SM3 HDR-t és az AA-t.
#73
"Számos helyen azt olvastam, az ATI-k kb. az X1800-tól felfelé tudják együtt."

Némi trükközéssel igen, de ugyan azzal a trükkel a Geforce 7900-tól fölfele is. DX10-es kártyáknál, már nem kell semmilyen trüközés.

"Egyébként az ATI X1000-es sorozata nem elõbb volt véletlenül, mint az GF7?"

Nem, késöbb. A Gefroce 7800 GTX-re válaszúl akkoriban az ATI az X850 XT-ét adta ki. Kb. 3-6 hónappal késöbb jött ki az X1800 XT.

#72
Számos helyen azt olvastam, az ATI-k kb. az X1800-tól felfelé tudják együtt. Egyébként az ATI X1000-es sorozata nem elõbb volt véletlenül, mint az GF7?

#71
Egy oldalon találtam HD2900XTvs8800GTX Crysis demo tesztet. Bekapcsolt szûrõkkel és szûrõk nélkül is a HD2900XT jobb kb.8%- al. Mondjuk nem kizárt, hogy fake.
HD2900XTvs8800GTX_Crysis_demo
#70
Nem, mert ha dynamic lightning-ra állítom, tehát a HDR is bekapcsolódik, akkor nem bírok semmi AA-t beállítani.
Szóval k*rva sok értelme volt software-es AA-t csinálni, ha az ugyanúgy nem megy pre-G80 kártyákkal.

Amúgy a Valve meg tudta csinálni a dolgot, csak azért, mert Newell szereti az FSAA-t, de 7800GTX-e van, és az nem tud szabványos HDR-el FSAA-t, de õ azt mondta, hogy oldják meg, hogy menjen egyszerre a dolog. És megoldották, kicsit nem szabványos lett a HDR, de szép(sõt szerintem az eddigi legszebb HDR a Source Engine-é), és kevés erõforrást eszik.
És simán megy vele a hardware-es FSAA, ami az én VGA-m esetében csak 1-2 fps esést jelent, ha feltolom 4x-esre.
#69
"Nem lehet, hogy csak a G80 elõtti Nvidia cuccokon szoftveres? Lévén azok nem tudnak még együtt FSAA-t és HDR-t, de a G80 már igen."

Az elsõ DX9 gereáció már támogatta HDR-t félig meddig, de gyártonként másképpen és egyik se teljesen: GeforceFX-es sorozat kizárólag 32bites lebegõpont csatornánként, kizárólag texturerect lebegõpontos 32bites textúrák (a síma 2D-és textúrát is rendesen támogatta, csak marha lassú volt vele), ATI 9500,9700,9600,9800 sorozat pedig 16bites lebegõpont csatronánként, kizárólag 2D-és textúrával, egyik akkori kártya se tudta bilinear vagy trilinear filterrel kezelni a lebegõ pontos textúrákat és az FSAA-at sem, mindegyiket pixel shaderben kellet impelementálni. Geforece 6-os sorozat végre már tudja mindkét HDR támogatás+rendelkezik a non power of 2 textúra támogatással is, azomban még mindig hiányzik a lebegõpontos textúra szûrés és az FSAA. Az ATI Xyz0 sorozatánál csak annyí változás történt, hogy már megy rendesen a 32bites lebegõpontos dolgok is, de a többi még hiányzik belõle. Geforce 7-es sorozat teljes körû 16/32bites lebegõpontos textúra támogatás (bilinear, trilinear és anisotróp szõrõvel) FSAA még mindig hiányzik (az nvidia szerint még túl költséges megvalósítani a lebegõpontos FSAA-t). ATI X1yz0-ás sorozata végre rendelkezik ugyan azzal a támogatással HDR színtjén, mint a Geforce 7-es sorozat.

DX10-es kártya sorozat mindkét gyártónál végre van lebegõpontos FSAA!
Viszont HDR normális megjelenítéséhez szükséges pixel postprocessing mégmindig pixel és vertex shaderek segítségével lehet csak és ez soha sem fog változni, sõt az autoexposure számításhoz nélkülõzhetelen a CPU is!!! ( A jelenlegi GPU-k architektúrájuk miatt erre a célra nem optimálisak)

#68
Nem lehet, hogy csak a G80 elõtti Nvidia cuccokon szoftveres? Lévén azok nem tudnak még együtt FSAA-t és HDR-t, de a G80 már igen.

#67
Ezt már 1x megbeszéltük. A tévéadás (mozifilmeket leszámítva) 50 mozgásfázis/seces (különböznek a páros és páratlan félképek). A sportközvetítések nézhetetlenek lennének 25 fázis/seccel. A mozifilmek 24/25 fps-e teljesen jól látható, ugrál az egész (csak a motion blur valamennyit javít rajta). De ettõl olyan filmes, álomszerû. Kis gyakorlattal az 50 vs. 100 fps is megkülönböztethetõ, az utóbbi sokkal folyamatosabb.

#66
A quake3 motor még nem is volt annyíra bugos, mint a HL1-ben használt módosított quake/quake2 motor. Nem az a probléma, hogy nem látod folytonosnak, hanem hogy elcseszõdött az egér kezelése. Source motornál már elég sokat javult ezen a helyzet, de még nem érte el quake3 motor-t ezen a téren.

#65
Lehetséges.
Akkor ez megmagyarázna sok dolgot :)

Én olyan 150-ig tudok különbséget tenni, a felett már nem.

CSS-el én tick 100-as szerveren szoktam játszani, ami másodpercenkénti 100 frissítést jelent, tehát a tökéletes játékhoz legalább 100 FPS kell egy tickrate 100-as szerveren.
Asszem ezt még Borg mondta valamikor.
Sanyix
#64
Akkor te nyilván nem az emberi fajhoz tartozol, mert az ember 50 képkockát tud megkülönböztetni másodpercenként. 25 (mozifilm, tv fps) már folyamatosnak látszik, bár még észrevehetõ hogy néha kevés.

Bugos szar quake 3 motoros játéknál még érthetõ lenne hogy sok fps kell, mert nagyobbat lehet ugrani nagyobb fps-el :DDD de úgytudom source-ban nincs ilyen bug.

Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)

#63
Megjegyzés: A DailyTech tesztjében szereplõ számoknak volt ki utánanézett. Kérem szépen a tesztelt játékokban az X1950XT is gyorsabb, ergo vagy kamu a teszt, vagy a driverben le volt tiltva a Shader procik legalább fele ...

#62
"Egyedül a Stalker volt ahol az FSAA magasabbra tolása egy csomó FPS-t evett, bár szerintem az a Stalker bugja, és nem a VGA-m gyengesége."

Ez nem bug, a Stalker SZOFTVERES AA-t használ, csoda lenne ha nem lassulna :)
Viszont ezért röhögtünk, hogy GF8800GTX-et, meg 8600GTS-t Stalker + FSAA-val teszteltek.

#61
Hát igen, a filterek.
A 6600GT(128MB, 128bit)-mmel ha bekapcsolatam az FSAA-t, meg az anisotropic filteringet, akkor 30% FPS esés volt kb az újabb játékoknál.

Most a 7950GT(512MB, 256bit)-mmel egyszerûen szemmel észre se vehetõ az FPS romlás, általában 2-3 FPS csökkenés van maximum.
Egyedül a Stalker volt ahol az FSAA magasabbra tolása egy csomó FPS-t evett, bár szerintem az a Stalker bugja, és nem a VGA-m gyengesége.
#60
Nem rossz ez , viszont jó lenne tudni , hogy bekapcsolt képminõségjavítókkal mit mennek a kártyák. Ugyanis a régi architektúránál a memõria mennyisége nagy felbontásban eléggé befolyásolta a kártya sebességét bekapcsolt FSAA , anizotróp szûrõk esetén. Tehát én azért megnéznék néhány 1600x1200 4xFSAA 16x anizotrop filteringes tesztet is. Directx 10 - et meg a Crys-al lehet tesztelni. Ha maradna a 15-30% - os különbség , tuti , hogy HD 2900XT-t vennék. A driver meg ugyanúgy hozzátartozik a termékhez , mint maga a vas , tehát ha az ATI driverei jobbak , akkor az ATI kártya jobb. Az más , hogy a driverek gyorsabban módosíthatóak , fejleszthetõek , mint maga a hardware.
rotator
#59
Fake teszt? Bazzz...

#58
Mit foglalkozol vele?hülyeszegény....akinek ennyire telik az iQból azt csak sajnálni tudom.

FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P

#57
Ugye, ha már az elmúlt években nem sikerült egy értelmes technikai tartalmú hozzászólást sem gyártanod, legalább jól fikázd le a többiekét... Ez az intelligens, felnõttes magatartás. Tegyük hozzá: szerinted.

#56
Öröm olvasni a sok gyermekkorú szakértõ véleményet! Tudálékosság ezerrel!

#55
Felejtsétek el ezt a 320 shadert. A 64 Vector5 shadernek semmi köze holmi 320 scalar shaderhez, épp az a lényege, hogy nem scalar. Esetleg azt lehet mondani, hogy kb. ahhoz lenne hasonlítható, de ez csak némely esetben igaz. Különben szerintem az XT-ben nem 64 van/mûködik, mint az XTX-ben.

#54
"Jó hogy a directx 10-es kártyákat XP-n tesztelik..."

Még nem igen vannak DX10-es játékok a nagy nyílvánosság elõtt, illetve azok amik a kis közösség elõtt vannak, azok is komoly optimalizálási gondokkal küzködhatnek még. DX9-es játékokhoz meg majdnem fölösleges a Vista.
(Bár én, ha az ATI kártyáját akarnám kihozni jobbra, akkor 64 bites Vista alatt tesztelném, erre két okom lenne: 1., az ATI Vistás driverei fényévekkel gyorsabbak, mint az NVIDIA-é; 2., az ATI drivereivel a 64 bites Vista majdnem minden tesztben 5-20%(!)-kal, gyorsabb volt mint az XP, az nvidia driverével, viszont a 64 bites Vista még jelenleg is bõven az XP alatt van. Ha hiteles tesztet akarnék készíteni, akkor viszont a fenti okok miatt kerülném a 64 bites Vistát)

#53
"Ezzel csak azt akarom mondani hogy mihelyst lesz használható dx10 játék mindkét cég ki fog hozni egy teljesen új kártyát, mert ki fog derülni hogy semmit nem ért a egész, és csak a szájuk volt nagy...(emlékezzetek csak fx5800 asra, az is megvolt pakolvamindennel csak nem ment...)"

Ezen nem agódnék, ugyan is a játék fejlesztõk rendelkeznek ilyen kártyákkal, õk is optimalizálnakrá, tapasztalataikat megosztják a kártyagyártókkal, megosztják esetleg a Microsoft-tal és/vagy az OpenGL konzolciummal. Ha kijönnek a játékok és teljesítmény gondok lennének a játékkal, mejd kiadnak egy optimalizáltabb drivert hozzá, a nagyobb gondokat meg a következõ generációban és/vagy sorozatban fogják csak orvosolni.

pepe792
#52
Jó hogy a directx 10-es kártyákat XP-n tesztelik...

#51
Amúgy miért fáj itt sokaknak, hogy az Atiba több mindent pakoltak, hogy nagyobb
teljesítményt érjen el?Sokkal több stream processzor van az Atiban?És akkor mi van?Ameddig nem mi fizetjük meg (jó, még végfelhasználói árat nem tok:))
addig fõjjön az Ati feje, mi meg élvezzük azt a kis pluszt.<#taps>

#50
Hát nekem kevés a 40FPS multi játéknál...
Nagyon kevés.
CSS pl 60 FPS felett játszható normálisan.
De single játéknál, vagy nem FPS-nél a 35-40 már minimálisan elég.
macleod2005
#49
Na és most õszintén emelje föl a kezét az aki már játszott dx10 es játékkal, úgy hogy minden fullextrás cuccot ki is használ belõle. Naugye, mert amíg ezeket a vackokat mi nem próbáltuk ki a saját gépünkbe egy igazán dúrva dx 10 es játékkal, addig fölös róla egyáltalán vitatkozni. És õszintén tegye föl most a másik kezét az aki nem képes egy dx9 es játékot 40 fps el élvezni, csak 100 al(mert ugye a 40 re az összes high end dx9 es kari képes). Ezzel csak azt akarom mondani hogy mihelyst lesz használható dx10 játék mindkét cég ki fog hozni egy teljesen új kártyát, mert ki fog derülni hogy semmit nem ért a egész, és csak a szájuk volt nagy...(emlékezzetek csak fx5800 asra, az is megvolt pakolvamindennel csak nem ment...)

#48
Kár h az ati kártyák mindig ilyen ronda pirosak voltak:S ezen már soha nem változtatnak?!

#47
Nem.
Egyrészt annak nem ilyen a ventillátora, ami inkább már turbina :D
A GF 8800GTS/GTX-en viszont pont ugyanilyen turbinaventi van.
Az X1950-en is ilyen függõleges lapátok vannak, de ritkábban, és a kivágott részre belógnak.
Másrészt a burkolat alakja is inkább 8800, mint X1950.
Az X1950 hûtõburkolatának felsõ része ilyen íves, ez egyenes, akár csak a 8800 hûtõburkolata.
#46
(Nem ugyanaz, csak gyorsabban, hanem igencsak más - gyorsabban, amit DX9c-vel nagynehezen és jó lassan lehet csak utánozni.)

#45
"A DX10 csak a DX9c újraoptimalizált, alapoktól újraírt változata.
De attól még nem tud többet, mint a DX9c, csak gyorsabb"

Hülyeség. Alább láthatod, miért.

Oldal 1 / 2Következő →