2008-ra új grafikus kártyákkal készül az AMD
Jelentkezz be a hozzászóláshoz.
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
[Asus A8N-SLI SE][Amd Athlon 3500+@2530][2x512mb DDR460][Inno3d GF 7600GS][LG Flatron S1750SQ]
Nos én kíváncsi lennék arra az alapórajeles 5200 pontra. Megtennéd, hogy földobod a netre ? Még nem láttam olyan 86GT-t (és olyan 2magos - esetleg 1magos procit) ami alapórajelen ment volna egyjátalán 5000-ret.
[Asus A8N-SLI SE][Amd Athlon 3500+@2530][2x512mb DDR460][Inno3d GF 7600GS][LG Flatron S1750SQ]
Nos akár hiszed, akár nem ez nem úgy megy, hogy gondol egyet az nvidia és beszünteti a középkategóriát. Az úgy megy, hogy a kártya egyre inkább gyengül az egyre inkább fejlõdõ grafikai világban, és már egy idõ után nem hívható középkategóriás kártyának az a vga, ami már szinte minimális beállítások mellett képes csak elvinni a játékokat (újakat) akadás nélkül (25<😉.
Lásd a tavalyi év egyik legjobb középkategóriás videókártyáját: 7600GT . Most már ez az alap, ha valaki játszani akar az újabb játékokkal, bár erõs kompromisszumokat kell kötnie.
És ugye egy kártya sem lesz 90k örökre, az ára az értéke zuhanásával párhuzamosan (hát elvileg így menne) csökken. Így lesznek általában felsõkategóriás (ha olcsóbbra vihetõ az ára, bár ez nem mindig van így, függ a gyártástól) termékekbõl felsõ-közép-, középkategóriás termék
[Asus A8N-SLI SE][Amd Athlon 3500+@2530][2x512mb DDR460][Inno3d GF 7600GS][LG Flatron S1750SQ]
Aha, van, aki nem látja, érzi a különbséget 20 és 50 fps között sem.
Bár az 1950Pro és a 8600GTS között nincs ekkora különbség, de azért van, játéktól függõen több-kevesebb. (Csak mellékesen, az 1950-esek 256 bitesek, a 8600-asok meg 128 bitesek.)
A vita elõször arról szólt, hogy érdemes-e 1950Pro-ról 8600GT-re váltani (most mindegy, hogy húzva van, mert mindkettõt lehet húzni, ráadásul a GT vramját nem lehet felhúzni a GTS szintjére, pedig sokat számít nála a vram, mivel csak 128 bites). Mivel Chris barátunk csak utólag közölte, hogy most váltott AGP-rõl, és nem akart egy ugyanolyan kártyát venni, hanem valami újabbat. Ami persze érthetõ, legalábbis ha olcsóbban vette a 8600GT-t. Mert drágábban gyengébbet nem igazán éri meg, DX10 ide, vagy oda. Fõleg, hogy a mostani DX10 "kínálat" futtatására használhatatlan, ÉS mire jönnek "igazi" DX10-es cumók, addigra ez a kártya rég nem középkategóriának fog számítani, azaz a fejlesztõk nem úgy lövik majd be a dolgokat, hogy ezen a kártyán közepesen fussanak a dolgok. Az új közép a 8700 lesz, ami jóval gyorsabb lehet majd, mint ez...
Szal itt mi nem egyszerûen fikázunk, hanem megpróbáljuk megértetni, hogy nem igazán éri meg ilyet venni. Aki meg visszautasítja az ésszerû jótanácsot, magára vessen.
ps. ez persze nem menti fel "who am I 7"-et az ordenálé stílus befejezése alól.
Ezt valahogy nem sikerült dekódolnom. Most akkor 4500 az alap, vagy 5200?
Hát zúgolódnak is a fejlesztõk szépen, meg a játékosok is. (És mindkettõ közül sokan állnak át konzolokra, mert az sokkal kiszámíthatóbb.)
Olyanról hallottál már, hogy egy kártya ára leesik? Korábban is elõfordult párszor... Pl. az X1950 sorozat korábban a csúcs volt, aztán középkategória lett belõle, mivel kb. fele teljesítményt hoz, mint a GF8800-asok. Szóval õszre valószínû szépen csökken majd a 8800GTS ára is. (Az egy másik dolog, hogy így meg már nem éri meg gyártani, és elõbb-utóbb inkább kivonják a piacról, mert újabb technológiával olcsóbban kihozható ugyanaz.)
Õsz-tél környékén jön a GF8700, és az lesz hivatalosan a középkategória. (De ez sem fog sokáig tartani...) Annyit mondanék róla, hogy 256 bit (a 8600-asok 128 bitesek), és vélhetõen több shader egység...
Majd akkor térjünk vissza arra, hogy gyenge a kártya, ha lesz normális dx10-es játék (mondjuk Unreal engine-es, vagy Crysis), és szarul megy. Addig ez mind csak találgatás. Szerintem a 8800GTS a maga 90.000 forint körüli árával kicsit erõs (mármint összegben) középkategóriának. Ha az AMD és az nVidia ezt megcsinálta volna, hogy megszûnteti a középkategóriát, már rég felháborodtak volna a játékfejlesztõk, mert kutya se lenne ki megvenné a játékaikat. Most képzeld el, hogy õsszel kijön a Crysis. Csak olyan gépen fog elindulni, ami 90.000-es videókártyával megy? Szerintem lehetetlen, akkora bukta lenne, senki sem venné meg.
Én azt mondom, ne találgassunk, várjuk ki a végét...
Utószóként még annyi, hogy most még lehet, hogy elég lesz dx9 és korai dx10 játékokhoz a karid, de ebben biztos vagyok, hogy késõbb mindenképpen váltanod kéne, vagy sli-be kötni, mert iszonyat nagy optimalizatlanságok miatt horror gépigények lesznek. Én egyenlõre látatlanba fogadnék egy félig megrágott mars csokiba, hogy a 8800GTS 320mb -os kari lesz jövõre a középkategória (, talán még 1 év sem kell).
[Asus A8N-SLI SE][Amd Athlon 3500+@2530][2x512mb DDR460][Inno3d GF 7600GS][LG Flatron S1750SQ]
who I am -> <#lama>#lama>TUDÓS<#lama>#lama> 😄DD
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
ISTENEM DE HÜLYE VAGY TE B+.Faszom se szól hozzád.EZ EGY IRÓNIKUS Mondat volt te hülye, h LEHETETLEN felhúzni te meg okoskodtál, h felhúztad.ISTENEM , hgoy lehetnek ilyen barmok a földön????????????? ááááá
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
Talán én is ezt venném (vagy egy 2600XT-t), ha AGP-rõl váltanék. De én inkább a HD-s videolejátszás jobb támogatása miatt, mint a nem túl használható DX10 képessége miatt... (Illetve inkább egy kisebbet, mert a videós képességeik ugyanolyanok, és majd késõbb egy 8700-ast.)
Amúgy ma lefuttattam egy 3DMark06-ot a gépen. 1280x1024-ben 4xAA-val és 16-os anisotropic szûréssel 3700-at ment a gép. A régi gépem ugyanezekkel a beállításokkal (x1950Pro) 2100-at. Nem azt mondom, hogy a videókártya miatt megy ennyit, abban egy 2800+-os Ahlon64-volt, de nekem ez bõven megfelel.
Amúgy te most milyen kártyát vennél 40 körül? Elhiszem, hogy egy árnyalatnyival lassab a 8600GTS a 1950-nél, de ez már legalább DX10-es. Annyival nem rosszabb, hogy inkább vettem volna egy X1950-et.
Kurvára nem kell nekem gyõzködnöm sem a ph!-sakat, sem mást, elég megnézni a gyári technikai slide-oket. De ha ez nem elég, meg lehet nézni Beyond3D vonatkozó technikai elemzéseit... Úgyhogy errõl ennyit.
Jó poén volt!
Amúgy szerintem DEZ írj a prohardvernek, és a többi más elismert hardveres oldalnak, hogy TE akkora király vagy, hogy majd te jól megmondod, hogy is van az, nehogymár ilyen semmirekellõ emberkék a TE NAGY TUDÁSODDAL ellentétes cikkeket irogassanak. 😄DD
És gyere a porszivó csöveddel, gondolom olyan 60 kilós ÁLLAT lehetsz... 😄DD
Nem vagyok meggyõzõdve arról, hogy ezek a programok azért futnak jobban Core 2-õn, mert Intel-re optimalizálnak. Ez ennél bonyolultabb dolog, fõleg az SSE utasítás-végrehajtás sebessége játszhat fõ szerepet.
Blackmail the Universe
Blackmail the Universe
Mellesleg nem független stream "procik" vannak a G8x-ban, hanem szintúgy 8-way SIMD blokkokba vannak rendezve. Csak itt egy ilyen nem egy pixelen dolgozó kód-szál egy utasítását hajtja végre, hanem egy adott kód egy elemi utasítását (pl. vektorokat elemenként sorban) 8 pixelre - így a kód számára olyan, mintha egy scalar végrehajtó egység lenne. Ezt sokan nem fogják fel, de mindegy.
Az oké, hogy javulnak a driverek, de a fizikai korlátokat nem tudják áttörni, úgymint jóval kevesebb shader egység (a scalar/vec4 ügyet is beleszámolva), kevesebb texturázó és ROP egység, 128 vs. 256 bites memóriaelérés...
Normális hangnemben is közölheted, hogy alaplapcsere miatt kelett váltani.
Most linkeljek be egy csomó tesztet, ahol AA-val sokkal jobban leesik a 8600-asok teljesítménye, mint az 1950Pro-é? Bocs, de azoknak inkább hiszek, mint a te bemondásodnak. Mellesleg az esetek többségében AA nélkül is lassabb. Ezen nem változtat, hogy 1db játékban viszonylag hozza azt a szintet.
Ajánlom figyelmedbe:
"A G80 architektúráját bemutató írásunkban részletesen elmagyaráztuk, hogy a független stream processzoroknak az a lényege, hogy sokkal jobban hozzáigazíthatóak az aktuális igényekhez. Ez nemcsak azt jelenti, hogy kiegyenlítik a vertexes és pixeles terhelést, hanem azt is, hogy ezeken belül mindig optimális – vagy ahhoz közeli – a kihasználtságuk. Ha egy négy skalár egységes hagyományos pixel shadernek két egységgel számoló utasítást adunk, akkor a fele kihasználatlan marad." -részlet innen: http://prohardver.hu/cikkek/2007-04-18/geforce_8_kozepkategoriaban/oldal_4.html
De gondolom te a prohardvernek sem hiszel, mert te tervezted a G80-as architektúrát...
Amúgy amikor az elsõ G8x-es tesztek készültek, még a driverek igencsak lassúak voltak. A foreware mostani verziója már mondhatjuk, hogy normális teljesítményt nyújt.
Amúgy AGP-s volt az x1950 azért cseréltem, mert gép csere volt.
who am I 7 -> "felhúztad a 256-os 8600ast 640-es GTS-re?" -> ez téged minõsít "te tudós", az 8800GTS, ez meg 8600GTS. Neked persze ez ugyanaz...
<#hehe>#hehe>
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
"Én most vettem egy 8600GT-t, amit felhúztam GTS-re. Elõtte egy X1950Pro-m volt, és egyátalán nem érzem, hogy lassabb lenne, sõt..."
Legjobb esetben ugyanannyi az fps, AA-val meg szépen leesik. Sok értelme volt váltanod...
"Én nem értek egyet a teljesítmény tesztekkel. Mi alapján mondjátok azt, hogy a 8600GTS és a 2600XT szar? DX9 tesztek alapján?"
Abban még elmegy a teljesítménye, úgyhogy nem az alapján.
"A DX9-et ezek a kártyák csak emulálják, a hardver a DX10-hez van maximálisan igazítva."
LOL, dehogy emulálja. 😄 A DX10-kompatibilis shaderek a DX9-cel is full kompatibilisek (magyarán felülrõl kompatibilis a hw a DX9-cel), a többi egység (textúrázók, ROP-ok, stb.) meg lényegében nem változott.
"A mai DX10-es tesztek meg egy rakás szart sem érnek. Azok DX9-es játékok, csak adtak hozzá pár dx10-es effektet, hogy szebb legyen, de attól még nem használják ki az egyesítétt shared modellt."
A shader-kódok szempontjából majdnem mindegy, mert továbbra is van pixel shader és vertex shader, csak hozzá jön a geometry shader - a lényeg, hogy ugyanazok az hw egységek futtatják õket.
"Például, a DX10 támogatja azt, hogy egy tárgyat egyszer számol ki, és utána sokszorosítja a tárgyat elforgatva. El tudjátok képzelni ez mennyivel kevesebb számítás, mint a tárgy 10-20x-i kiszámítása? Gondoljatok csak bele a fákba vagy az épületekbe a játékokban."
Ez csak a poligonokra vonatkozik, a megvilágítást (ami a teljesítményigényesebb) ugyanúgy minden test minden látható pontjára ki kell számolni, mert az minden esetben más és más. Azaz ez a dolog csak pár százalék gyorsulást jelent ugyanannál a grafikánál. A jelentõsége inkább új effektek megvalósításában áll (particle systems, bizonyos fizikai szimulációk, stb.), ami viszont éppenhogy további terhelést jelent majd... 😊
"A DX9-es engine-ü játékok még ezt nem használják ki. Várjuk csak ki a végét, szerintem a 8600gts egy nagyon ütõs kártya lesz, csak még nincs mi kihasználja."
Bilibe ér a kezed. 😊
"Kipróbáltam az elsõ normális DX10-es játékot, ami már pödzögeti a DX10-es architektúrát (Lost Planet), és 1280x960-ban bõven vitte a kártya."
A 10fps (AA-val 5) nálad már a "bõven vitte"??? 😄DD
Erre annyit tudok mondani hogy: Te normális vagy?
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
Nyilván az MS a xbox360 Xenos-hoz hasonló hardvert képzelt el D3D10-es gyorsítónak. Az új API megpróbálja számolásirányba terelni az algoritmusokat, minél kevesebb textura fetch, több számítás. Ebbõl kiindúlva valamilyen szinten mondhatjuk azt, hogy az R600 felépítése az ideális. Talán az nv is tudta, hogy milyen hardver illik az új API-hoz, csak bojkottálni akarta az AMD Xenos-ból származó elõnyét, mindenesetre ez kétélû fegyver fordítva is elsülhet. Meglátjuk mit hoz ki G92-nek az nV, mert az már iránymutató lehet a jelenlegi viszonyokat ismerve.
Egyként, jó volt a GAGYI LÓSZT PLANETTEL NYOMÚLNI VISTA ALATT? 😄😄😄 hány efpées volt?felhúztad a 256-os 8600ast 640-es GTS-re? <#vigyor>#vigyor><#taps>#taps> nagy sztárok vannak itt sg-n az tuti.De azon sem lepõdtem volna meg, ha ultra szintre húzod fel 😄 és azt mondod, hogy az A.Wake már simán megy rajta 😄DD
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
Én nem értek egyet a teljesítmény tesztekkel. Mi alapján mondjátok azt, hogy a 8600GTS és a 2600XT szar? DX9 tesztek alapján? A DX9-et ezek a kártyák csak emulálják, a hardver a DX10-hez van maximálisan igazítva. A mai DX10-es tesztek meg egy rakás szart sem érnek. Azok DX9-es játékok, csak adtak hozzá pár dx10-es effektet, hogy szebb legyen, de attól még nem használják ki az egyesítétt shared modellt. Például, a DX10 támogatja azt, hogy egy tárgyat egyszer számol ki, és utána sokszorosítja a tárgyat elforgatva. El tudjátok képzelni ez mennyivel kevesebb számítás, mint a tárgy 10-20x-i kiszámítása? Gondoljatok csak bele a fákba vagy az épületekbe a játékokban. A DX9-es engine-ü játékok még ezt nem használják ki. Várjuk csak ki a végét, szerintem a 8600gts egy nagyon ütõs kártya lesz, csak még nincs mi kihasználja.
Kipróbáltam az elsõ normális DX10-es játékot, ami már pödzögeti a DX10-es architektúrát (Lost Planet), és 1280x960-ban bõven vitte a kártya.
Sok lámi akkor is ezt mondta, amikor az amd procik mindenben jobbak voltak 😄
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
//ATI fan voltam :S 😞 sokkal szebb az ATI képminõsége, de úgy látszik, AMD-nek köszönhetõen már csak nVIDIA-t lesz értelme vásárolni. Mert prociban (prof felhasználásra) intel-t :S
Blackmail the Universe
Blackmail the Universe