260
DirectX10 támogatással rendelkező videókártyák...
-
#180 Jaj de jó, lesz végre AGP-re is DX 10-es kártya.Az ATI kiadta az X 2400 kártyáját. Így legalább nem kell az egész gépet lecserélnem. Csak kár,hogy gyenge az a kártya. -
#179 hát őszintén remélem, hogy mostmár rágyúrnak a fejlesztők egy kicsit az optimalizálásra, mert hihetetlen mértékben túlzásokba estek. ha így halad tovább nem években nézhetjük a konfigok időtállóságát, hanem hónapokban, ami egy kicsit gáz, főleg ha ilyen 400ezer ft-os konfigokat veszünk figyelembe! most épült meg a mostani konfigom, ha következő nyáron ez elavultnak fog számítani én komolyan mondom tüntetésképpen az autóm után kötöm a gépet és úgy vonszolom végig a városon, mint még anno régen a megszégyenített embereket!!!!!! -
Abu85 #178 Ha ez így lesz akkor ki sem érdemes adni azokat játékokat. Lesz ott optimalizálás bőven. A Crysis tökéletesen fut 8800GTX-szel ezt megbízható forrásból tudom.
Az Alan Wake az kérdéses, a project még kezdetleges állípotban van, így még az sem igazán eldöntött, hogy milyen eljárásokat használnak majd benne. Ez elvileg borítékolható, hogy D3D9-es lesz. -
virs lee #177 Jövő nyáron ezek a kártyák már sehol se lesznek, addigra még a felállás is fordulhat. Ha egyáltalán kell valaminek fordulnia. Mire megjön a Crysis / Alan Wake, azt a hagyományos menetrend szerint az akkori csúcsmodellek épphogy elfuttatják valahogy, és majd az azutáni generáción lesz élvezhető fullosan. Akor már épp annyira lesz lényegtelen a mostani kártyák közti különbség, mintha a Lost Planethez 9600pro és gf4 közül választanál. Mindegyik karcsú. -
Abu85 #176 Nem, de elengedhetetlenül szükséges a dokumentációk ismerete a teljesítmény behatárolásához. A sample demók pedig a jövőt mutatják, szerintem nem mindegy melyik VGA-n megy majd jobban a jövő nyári játékfelhozatal. -
virs lee #175 Ja, gondolom mindenki samplékkal meg dokumentációkkal jáccik otthon... -
Abu85 #174 Mert a D3D10-es sample-ek azt bizonyítják, hogy az R600-ban van kevesebb shader erő? Próbáld levezetni elméleti úton levezetni a shader kódokat. Persze feltétlen olvasd el előtte a CUDA dokumentációt. -
virs lee #173 Később nem ezek a kártyák fognak versenyezni egymással, hanem az x+2. generáció.
Mennyien vettek anno FX-et és mekkora sírás lett belőle.
Ugyanez van most a radeon 2900 xt-vel is. -
Abu85 #172 Nagyon sok embert az érdekel, hogy mi lesz jobb később. Ezeket csak az architektúra vizsgálatával lehet megállapítani. Mennyien vettek anno FX-et és mekkora sírás lett belőle.
Illetve azt sem szabad elfelejteni, hogy a HD2900XT árszerinti ellenfele a 8800GTS 640MB. -
virs lee #171 Ez itt nem a piac! -
virs lee #170 volt kompatibiltása a 32bit-es rendszerekkel, csak marha lassú volt
Az elég ok. Azért senki nem akar pénzt kiadni, hogy tizedannyi sebességgel fusson mint a régi vason. Ha meg nincs vevő, akkor kinek lehet eladni? Ezért kár legyártani is. Ezt az Intel is belátta. Pedig elméletben jobb lett volna az IA64-re váltani, csakhát a gyakorlatban a hozzá kapcsolódó sok macera miatt szinte megoldhatatlan feladat. -
virs lee #169 NEkem nem gyanú kell, hanem valós teljesítmény. Hiába tudna esetleg többet a Radeon mint amit produkál (legkönnyebb persze szabotázst emlegetni, mint normálisan leprogramozni, az nem kerül munkába), ha nem teszi. Kitörölhetem a seggem a "mi lenne ha" feltételezésekkel (kb. annyit ér mint hogy mi lenne ha Hitler nyerte volna a vh-t... nem nyerte), ha a gépemen a tizedét nem látom. Márpedig a felhasználót csak az érdekli amit lát, a pénzéért valós eredményeket akar látni. -
Abu85 #168 Az IA64-es rendszernek is volt kompatibiltása a 32bit-es rendszerekkel, csak marha lassú volt. Mindkét cég a saját megoldását támogatta, lényegében az MS döntött. Az Intel pedig a CPL-en keresztül jogot formált az x86-64-re.
Szerintem se fog sikerülni az Intel-nek, de meg fogja próbálni. Mindenesetre 2010 után a célprocesszorok integárlásánál már nem nagyon rughat labdába az nv.
Az x850XT nem hiszem, hogy jobb volt mint a 6800GT. Jóval tovább bírta az nv üdvöskéje. Több lehetőség is volt benne, a texture fetch is jobban át volt lapolva. Ezenkívül jobb volt a shader kezelése is, egy PS proci képes volt 3+1-es(MUL) és 2+2-es(MAD) dual-issue-ra, ami eléggé feküdt a PS feladatoknak. -
#167 szevsztok.nalam elado egy sapphire radeon x1650pro 256 mb gddr3,fel eves,azer adom olcson mer a hutoje hazilag kisse atjavitott,17 er adom,erdekel valakit -
virs lee #166 Ezt még jobban tetőzte, hogy a 64bit-es váltásnál az MS az AMD x86-64 utasításkészletét támogatta az Intel IA-64-jével szemben
Ezt az Intel is támogatta, mert nem kellett architektúrát váltani. Technológiailag jobban jártunk volna egy rendesen áttervezett 64 bites rendszerrel (IA64), de ezt a szoftverfejleszőknek is támogatni kellett volna, amiért nem lelkesedtek. Gyakorlatilag mindenki dobhatta volna ki a meglévő programokat. Ez nem az MS döntése volt (neki van windowsa Alphara is, meg Itaniumra is, szal neki mindegy), hanem az Intelé.
Az nV-t sajna ki kell taszítania a GPU piacról az Intelnek 2010-re.
Egyszer már próbálkozott, megbukott. A semmiből nekik se fog menni. Az ATI meg az AMD-é, nyilván nem fogják az ellenséget támogatni, tehát marad az együttműködés az Nvidiával, amivel az AMD-t szopathatja.
Nekem nincs kedvenc cégem, volt 9800 prom, x850 xt-m, amikor az volt a legjobb. De most az Nvidia az, ezért azt veszem. Majd ha megint az ATI lesz jobb, megint váltok. De hhoz jobbnak kéne lenni, és nemcsak papíron, hanem bizonyítottan, a valóságban is. -
Abu85 #165 Nah ja... A tesszalációs algoritmusokat kompletten kivették. Veszet szögletessek a háttérben a hegyek a x360-as verzióhoz képpest. -
Inquisitor #164 Az nem gyanus, hogy a Lost Planet eredetileg Xenoson fut (ATI R500 GPU) szebben és gyorsabban, mint a PC verzió, és a nagyságrendileg gyorsabb R600on még is lassú? Ez mindek nevezzük, optimalizációnak vagy fizetett szabotázsnak? :) -
Abu85 #163 Az MS legnagyobb partnere az Intel, aminek a legfőbb ellenfele az ATI-t tulajdonló AMD. Szerinted majd az Intel azért fog lobbizni hogy az ATI-t támogassa, vagy hogy a vele szövetséges Nvidiát?
Nem vagyok meggyőződve róla, hogy ez így lenne. Az xBox 1 fiaskó után nem éppen baráti a viszonyuk. Ezt még jobban tetőzte, hogy a 64bit-es váltásnál az MS az AMD x86-64 utasításkészletét támogatta az Intel IA-64-jével szemben, sőt az SM háromszór mondta vissza az Intelnek a támogatási kérelmét. Kényszerű a partnerkapcsolat, dehogy szeretnék egymást az enyhén szólva túlzás.
Az nV-t sajna ki kell taszítania a GPU piacról az Intelnek 2010-re. Az AMD és az Intel az egy chipbe integrált célprocesszorok alakalmazásában látják a jövőt. Kétszereplős piacot könnyebb kézben tartani, így vagy az AMD-nek vagy az nV-nek menni kell. Mivel az AMD-re szüksége van az Intel-nek ezért kizárásos alapon az nV lesz a kieső.
Az nv logó sajnos nem sokat ér, mivel a legtöbb játékban pusztán reklám jellegű.
Én úgy látom, hogy többnyire olyan emberek panaszkodnak akik nem teljesen értik a dolgok mozgatórugóját (ezt természetesen nem lenézésből mondtam, pusztán megjegyzem). Egyszerű rámondani a gamára, hogy azért fut jobban nV-n, mert ott a logó, de mint mondtam a háttérben ezer és egy oka lehet az Ati teljesítményének. Mindenre megvan az ésszerű és logikus magyarázat.
Nem akarok flém-et indítani, sőt civilként az nVidia a kedvenc cégem. Egyszerűen leírom a jelenlegi helyzetről a véleményemet. Nem akarom befolyásolni a döntésed, ha te jobbnak érzed a GF8-at akkor természetesen jogod van azt venni/használni. -
virs lee #162 Tény? Az a tény hogy Lost Planetben egy lebutított GTS megveri az ATI csúcsmodellt. Az tény. A többi csak marketing. Lehet magyarázkodni hogy - szerinted - ez miért van, de amíg az eredmények nem változnak, addig ez marad a tény.
Az nv logó sajnos nem sokat ér, mivel a legtöbb játékban pusztán reklám jellegű.
Aha, azért panaszkodnak mindig az ATI-sok...
Az MS legnagyobb partnere az Intel, aminek a legfőbb ellenfele az ATI-t tulajdonló AMD. Szerinted majd az Intel azért fog lobbizni hogy az ATI-t támogassa, vagy hogy a vele szövetséges Nvidiát?
A demóból már némileg látható, hogy miért nem készített GS sample-t az nV, hiszen a 8800Ultra 3FPS-re képes szemben a HD2900XT 55FPS-ével. Nyilván ezek a lépések rossz hatással vannak a piac alakulására. A GS-t a játékokban nem fogják többre használni practicle effektek létrehozásánál.
Tegyük fel hogy tényleg így van, nem csak a szokásos Nvidia flém. Akkor mi van? Ha nem rakják bele a játékba, akkor a Radeon se fogja gyorsabban futtatni. Engem csak a valóság érdekel, az hogy mire tudom használni a cuccot. Nemlétező dolgokra nyilván nem, tehát nem is érdekel. A Lost Planet (és tsai) viszont létező dolgok. -
Abu85 #161 Valakinek zajos, valakinek nem, az teljesen szubjektív. Szerintem elviselhető zajszint. -
Abu85 #160 Barny: D3D10-ben se a HD2600XT se a GF8600GTS nem lesz használható, csak grafikai kompromisszumokkal. A jelenlegi D3D10 patchelt játékokban a HD2600XT gyorsabb. Pár hete próbáltam a Call Of Juarezt, és a Company Of Heroest, 8600GTS-en Low beállítás mellett lehetet használható FPS-t kapni, míg HD2600Pro-n Medium grafika mellett ugyanolyan gyors volt. A Lost Planet még néhol bugos a HD Radeonnal, de már a legtöbb hiba ki van javítva. A teljesítmény hasonló volt a fenti két játékhoz, de nem tudom, hogy mennyit jelentetett a Radeonnak a grafikai hibák. Elméletben a 7.8-as driverre ígérnek teljes Lost Planet javítást. -
#159 27dba az zajos neki?? -
#158 Sonic
-
#157 elnezest elirtam,Xpertvision HD2600XT -
#156 hd2900xt vs 8600gts.lehet kesobb jobb lesz az ati?vagzy mar most jobb?
Xpertvision HD2900XT Sonic milyen.lehet ezt vennem meg??D3D10-ben hogy produkal? -
Abu85 #155 Ez nem marketing, ez tény. Az OpenGL teljesítményben nincs különbség az Ati és az nV között. Nem tudom miből következtettél erre. A mai játékok olyan kódokkal rendelkeznek, hogy ha az nV és az AMD nem optimalizálná a drivereket akkor őszintén szólva a Far Cry kb. 15FPS-sel menne a jelenlegi csúcskártyákon is. Az nV és az AMD azért jutott el idáig, mert a fejlesztés komoly mértékben a driverre specializálódik. Bár a Vista driverekben még komoly lemaradásban vannak. Az nV sajna még a WDDM-et sem kezeli hatékonyan, de remélhetőleg ez még változik. Tipikusan az a baj az új MS rendszerben, hogy megváltozott driver modell kifejezetten a D3D10 API igényeit szolgálja, így a gyártóknak elengedhetetlen a modell ismerete.
Az nv logó sajnos nem sokat ér, mivel a legtöbb játékban pusztán reklám jellegű. Pénz központú a világ, de a legtöbb fejlesztőnek nem érdeke az egyik rendszert előnyben részesíteni. Persze a Lost Planet-ban komoly értelme van hiszen az xBox360 port, gyakorlatilag egy csomó dolgot ki kellett belőle venni illetve át kellett írni. A PC-s verzióban nincsenek tesszalációs rutinok, ami némileg szebbé teszi a xBox360 verziót. Persze a programozható tesszalátor majd D3D11 követelmény lesz. A Lost Planet-nek (szándékosan vagy véletlen) nem szabványos a WDDM kezelése sem, ezért nem megy jól D3D10-ben Ati-n. Ha véletlen akkor a Capcom idővel biztos javít rajta. Ha szándékos akkor a Microsoftnak idelye lenne meghívni a Capcom és nv vezetőségét egy kis felymosásra, mert ezzel a lépéssel nem az Ati-t, hanem az MS D3D10 API-ját és a WDDM felületét járatták le. Az MS az új API-val mindent megtett a szabványosság maximális kihasználásáért. Nem hiszem, hogy csak úgy nézni fogja, hogy az nV (csak azért, hogy mentse a menthetőt) lerombolja azt. Nem vagyok olyan helyzetben, hogy elítélhessem egy piacvezető cég politikáját. Szvsz az nV le akarta járatni az Ati D3D10-es karijait, csak olyan utat választott amivel, kivívhatja a Microsoft haragját. Márpedig azt mindenki tudja, hogy velük aztán nem érdemes rossz viszonyt ápolni. Persze az is előfordulhat, hogy szimplán elrontottak valami a CAPCOM-os srácok, csak ennek kicsi a valószínűsége, hiszen kívülröl ismerik az R600-at ami felépítésben rendkívül közel áll a xBox360 Xenos-hoz.
Nem tudom, hogy az AMD miért konkurenciája az MS-nek. Igazából partner kapcsolatban vannak, hiszen együt népszerűsítik a D3D10-es API-t. Az utóbbi időben közel kerültek egymáshoz, hiszen az AMD megírja azokat a D3D10-es sample-eket amiket az nV nem volt hajlandó elkészíteni. Az MS-nek az az érdeke, hogy minél többen használják a D3D10-es API-t. Ezért komolyan kampányol mellette. Nemrég készült el Emil Persson Global Illumination demója, ami olyan eljárásokat használ a megvilágítási modell leképzésére amire eddig nem volt lehetőség a Geometry Shader hiánya miatt. A demóból már némileg látható, hogy miért nem készített GS sample-t az nV, hiszen a 8800Ultra 3FPS-re képes szemben a HD2900XT 55FPS-ével. Nyilván ezek a lépések rossz hatással vannak a piac alakulására. A GS-t a játékokban nem fogják többre használni practicle effektek létrehozásánál. Ezek tipikusan kis vertex tömbökből állnak, így nem probléma a G80 futószalagjainak a cache méret problémái. Az nV biztos dolgozik a problémán, speciel a G84 érezhetően jobban kezeli a vertex feladatokat. -
virs lee #154 Ezt a "komoly előnyt" azért látni is kéne, mert hát a konzolos topik is tele van a sony marketinggel, ennyi teraflops, annyi akármi, csak épp a valóságban nem látszik belőle semmi. Nekem az ATI marketingje is ilyennek tűnik. Majd ha bizonyít, elhiszem, addig inkább a szememnek hiszek. Ráadásul OpenGLben az ATI sosem volt a topon, nem hiszem hogy ebben is pont most fejlődnének fel. Persze időnként "optimalizálják" a drivereiket 1-1 játékhoz, de ha pont nem azzal játszol, akkor szart se ér, de azzal is csak épphogy jobb.
Ami viszont probléma, hogy nem tudjuk milyenek lesznek az új játékok.
De tudjuk, Nvidia logósak. ~~
Az MS pedig biztos nem arra az ATI-ra fog optimalizálni, amelyiket épp most vásárolta fel a konkurrenciája. Inkább jól alátesz, mégha esetleg jobb is lenne a hw. Feltéve hogy egyáltalán jobb lenne. -
Abu85 #153 Elég sokat tanulmányoztam a két architektúrát és a D3D10-es újdonágokban komoly a HD2900XT előnye. Az MS féle GI prezentációban, a HD2900XT 55FPS-t megy, míg a 8800Ultra 2-3FPS-t. Ez nem éppen következetes teljesítmény.
Másik topic-ban már beírtam:
Elég megvizsgálni a két architektúrát és látható, hogy mi miért van. A D3D10-nek főleg a skalár stream procik felelnek meg a legjobban. Ezek SISD Alu-k, tehát ''1 utasítás 1 adaton'' elvűek. Az AMD és az nV is ilyen Stream procikat használ, mindkét rendszerben MAD, MUL, ADD utasítás lehetséges float adattípusra (integer adattípusra pontosan nem tudom, hogy milyen műveletett tudnak, de ez nem túl lényeges, mert mindenki float-t használ). Ezen kívül a D3D10 lehetőséget ad trigonometrikus és transzcendens utasítások elvégzésére. Ezeket az SFU (Speciel Function Unit) egységek végzik. Itt van némi változás az nV és az AMD SFU egységei közt. Az AMD SFU egysége a spec. utasításokon kívül MAD, MUL, ADD utasítást tud, így lényegében használható általános stream processzorként, míg az nV SFU-ja stream prociként MUL utasítást tud, illetve 4 órajelciklus alatt végez egy műveletett, tehát 4x lasabb a stream procik sebességénél. A két rendszer elrendezése is eltérő. Az AMD 4stream+1SFU alapú shader procikat használ, ezekből 4 darabot működtet egy clusterben és VLIW mintával etetik őket (a VLIW lényegében egy architektúra az a fontos, hogy a VLIW minta egy nagy memóriaszó ami leírja az egységeknek a működést, illetve ezeket a szavakat a fordító hozza létre). Az nV egy shader procijában 4+4darab Stream proci van egymással párhuzamosan kötve, és ezekhez a 4-es csoportokhoz kapcsolódik egy-egy SFU egység (tulajdonképpen ez totálisan a float2 adattípushoz lett tervezve, nem véletlen, hiszen jelenleg ez az adattípus dominál a shader programokban).
Ami viszont probléma, hogy nem tudjuk milyenek lesznek az új játékok. Minden D3D generáció váltás új elképzeléseket szül. Ezek akkor jók ha fokozatosan lesznek bevezetve. Ilyen volt a D3D7-D3D8 áttérés. Ellenben a Hát a D3D8-D3D9 váltást némileg akadályozta az FX karik képességei. Ez sajnos nem következetesen ment végbe. Az nv tartotta a fejlesztőket addig míg ki nem jött az új szériája és utána bumm, jött a drasztikus teljesítményesés. Persze ez csak az FX tulajokat érintette rosszul. Akkor is kivolt kövezve egy út amit az MS és a fejlesztők elképzeltek, de csak később tudták alkalmazni. Most is van biztosan elképzelés a jövő megoldásairól, az a probléma, hogy nem tudjuk mi az. Az egyik véglet az, hogy maradnak a jelenlegi megoldások és a jelenleg mutatott teljesítmény lesz mérvadó. A másik véglet, hogy elmennek a fejlesztők az AMD elképzeléseinek az irányába és a G8x teljesítménye drasztikusan visszaesik, mint anno az FX-nél. Remélhetőleg valamilyen köztes kompromisszumot választanak és azzal a felhasználók is jól járnak.
Az Microsoft felfogásában minden bizonnyal a Xenos-hoz közelebb álló R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez. Mindenesetre a mostani játékokban az R600-ra jellemző irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz optimalizált driver rutinok amik még tényleg gyerekcipőben járnak, főleg D3D10-ben). A D3D10 minden eddiginél jobban épit a shaderekre, ezért is problémás, hogy a két gyártó elképzelései nagyon széthúznak. Mondok egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelő eredményt, ehhez szükség van textura fetch-re ami igen nagy időveszteség a memória címzése végett. D3D10-ben lehetőség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége hajtja végre és meg is van az eredmény. Két eltérő megoldás és a jelenlegi D3D10-es karikkal mindkettő kivitelezhető. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentősen lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendő? Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettő algoritmust. Az MS a D3D10-es API-val a számlálós megoldást próbálná erőltetni, hiszen a textura fetch nélkülözése miatt jelentősen gyorsabban van eredmény. -
sheva94 #152 csá!
szerintetek melyik a legjobb kártya 30-35 ezer körüli árkategóriába, melyiket éri meg megvenni?? -
#151 jelenleg egy orája 1080i HDV videot renderelek vele :) még megy egy jó másfelet majd. proci 75 fokon stagnál, a vid ugyan nem terhelödik (sajnos :) de 62 fok körül álldogál. Eddig jol birja a gyürödést :) -
#150 2600XT...hááát...kábé 8600GTS, bár egy-két játékban 8600GT alatt teljesített...szóval változó a teljesítménye, állítólag későbbi driverekkel javulni fog... -
#149 es esetleg 2600xt,minek a szintjen van -
#148 7900GS-ről hülyeség váltani, min. 8800GTS-re gyűjts, annál ne add alább mert rosszabbul jársz. -
#147 MSI GeForce NX8600GT T2D256E-HD-OC PCX gyarilag huzoot,de ezt mar mondtam,alaplap:Arock 775Dual VSTA,P4 524 3.3 Ghz-re huzva,2 GB ram,ddr2 pc667...??? -
#146 MSI GeForce NX8600GT T2D256E-HD-OC PCX-et megeri venni.7900gs-em van,dx10 miatt szeretnek valtani.akkor mit is tegyek?? -
virs lee #145 A videokártya órajelét három lépcsőben szabályozza a PowerMizer segítségével, 2D-s megjelenítés esetén csupán 100 MHz-en "zakatol" a grafikus mag, a feszültség csökkenésről nem tudtunk bizonyosságot szerezni. Hőség ide, órajelcsükkentés oda, a GPU még internetezés közben se tudott 60 fok alá lecsúzni, teljes terhelésen (amennyiben a processzor mindkét magját is terheltük) a maghőmérséklet egészen 92 fokig kúszott fel, amely már-már kritikusnak mondható, egyszer túlmelegedés miatti szoftveres hibával is találkoztunk.
Ez azért elég LOÁL! -
virs lee #144 Persze... :D Haveromnál 2900 XT + Vista + DX10 mód = gyök2 fps. Én még nem raktam fel, de állítólag Nvidiával jobb. Nade 8600... -
virs lee #143 A 2900 XT a 8800 GTS szintjén mozog, szal nem egy világcsúcs. Sőt, van hogy ott se, mert annyira siralmasan produkál, pl. Lost Planet, Vindóz Pistával, DX10 módban. -
#142 ugy érted ati részen... :) -
#141 kossz a hasznos infokat