9761
-
Bmx01 #3199 legközelebb nem várom + a 3 évet legközelebb másfél éven belűl cserélek mindent +int sztem.
-
Bmx01 #3198 KÖSZ a sok lehetőséget
"ne vegyél asust, idebent leteszteltünk jópárat, inno sokkal jobban húzható...."
nem akarom húzni nekem 9600xt-m volt 3 évig a váltás PCIE 8600gt-re így is hatalmas lessz meg szinte kicseréltem az egész gépet nyáron de maradok az asus-nál szerintem.
-
#3197 szerinted ez 8800gtx esetében is így van? én meglepődtem mennyire nem bírja a húzást a karim -
#3196 ne vegyél asust, idebent leteszteltünk jópárat, inno sokkal jobban húzható.... -
#3195 egyszer volt egy németjuhászunk nnna annak volt a neve L... -
#3194 ez az aminek látszik -
#3193 Néztem neked párat:
Lord:
Asus EN8600GT 256MB PCIE 29 900 Ft
Asus EN8600GT Silent 512MB PCIE 36 900 Ft
Aqua:
Asus GeForce EN8600GT 256MB PCIExpress 3 év gar. 30.480FT
InnoVision GeForce 8600GT 256MB DDR3 PCIExpress 1 év gar. 23.100FT :D
InnoVision GeForce 8600GT 512MB PCIExpress 1 év gar. 23.520FT
PC Land:
LEADTEK PCIE GF 8600GT 256MB Br:28470 Ft
ASUS PCIe EN8600GT SILENT/HTDP/256MB Br:32520 Ft
EVGA PCIe 8600GT256MB Br:33240 Ft
MSI PCIe NX8600GT-T2D256EZ Br:33360 Ft
ASUS PCIe EN8600GT/2DHT/256MB Br:34440 Ft
PCX:
MSI NX8600GT OC 256MB GDDR3 PCIe Br: 29742FT
Asus Geforce 8600GT/2DHT/256M Br: 32421FT -
Bmx01 #3192 hell
Most akarok vásárolni asus 8600gt-t tudnátok v.mi olcsó netshop-ot ajánlani??
Előre is kösz.
-
tmisi #3191 Ez mindig is így volt...
Nem is tudtam, hogy az NV fagyigyárakat is támogat. Vagy épp mást... -
#3190 Nah és megéri most hd2900xt-t venni azt sem tudod kihasználni mire meg kitudnád kiadnak jobbat ez meg elavul... -
#3189 Egy dolgot még mindíg nem értek!Mért nincs sok játéknál élsimítás amikor választható opció a 2x,4x,6x élsimítás néhol 8x -is!Beállítom de semi nem látszik mintha be sem lenne állítva!És nem a control panelről bezsélek! -
zoolee #3188 Ge.i ATIFOSOS ! -
#3187 Fincsi Nvidia nyomos csokoládé fagylalt! -
#3186 Nem vagyok az nvidia ellen de ha már találtam egy ilyet
-
virs lee #3185 A 64 bites procinak most van értelme? Hány 64 bites játékot futtatsz? Pedig az már hány éve kint van... Mire lenne DX10 game, már lesz DX10.1 is, meg vagy 3 új generáció. -
#3184 mivel hogy már csak "dx10"-es kareszokat nyomnak a "felesleges venni" hülye állítás mert előbb fogynak el a 9-esek mint ahogy bejönnek a modernek -
virs lee #3183 Ezt Abu85 írta, gondolom több fórumra is shift+ins-elte. A lényege annyi hogy DX10-ben valszeg a 2900 XT jobb.
DE:
1. Nincs valódi DX10 game. (Majd egyszer...)
2. Még a DX10-hez tartozó Vistát se veszi kezébe normális cég az SP1-ig, ami talán jövőre megjelenik, hacsak szokás szerint nem csúszik megint, és majd csak ezután jöhetnek rá a gamék.
3. Mint Abu85 is elismerte közel sem biztos hogy az ATI-nak kedvező full DX10 lesz a jövő, lehet hogy marad a DX9 kiegészítve DX10 effektekkel, akkor meg hiába jobb az ATI olyan dologban ami nincs kihasználva.
4. A fentiekből látszik hogy mire DX10 only gamék lesznek, az nem a jövő hét, simán lesz 1-2 év, addig még pár generáció lecsorog a videokártya fronton. Majd az Nvidia is behajít egy GS-t a GPU-ba, ha nagyon kelleni fog.
5. A legfontosabb: mire ez bekövetkezik, a mostani kártyák már elavultak lesznek, és senkit nem fog érdekelni a DX10 teljesítményük, mint ahogy a Riva128 DX10 képességét se hiányolja senki. Addigra jobb kártyát fogsz kapni olcsóbban. Felesleges most azért kártyát venni amit ki se tudsz használni, mire ki tudnád, háromszor elavult. Egyszer majd lesz DX12, DX13 is, azt se tudják a mostaniak, és nem is várja el senki tölük.
Jelen pillanatban, és még vagy 1 évig minimum DX9 van, esetleg DX9 kiegészítve DX10 effektekkel, ebben az Nvidia sokkal jobb mint az ATI. -
#3182 szóval ez most ien g80 fikázó? -
#3181 Ezt egy másik forumon találtam, mi errol a véleményetek?
"Nvidia GeForce 8000-es sorozat turpisságai:
Csak a D3D10 támogatása kérdéses. Alapvetően a D3D szabvány olyan méretűre nőtte ki magát, hogy
nehéz megreformálni a rendszert. A D3D10 némileg megváltozott a D3D9-hez képpest, eleve az MS dönti
el, hogy melyik kari D3D10-es, tehát nincs önjelölés. Ez azt a problémát volt hivatott megszüntetni,
hogy minden D3D10-es VGA támogassa 100%-ig a szabványt, ugye volt egy kis ferdítás az x1000-es
Radeonnál, amikor az Ati a SM3.0 legnagyobb újítását a VTF-et nem támogatta. Igazából most is baj
van. Az nV és az AMD másképp képzeli el a D3D10-es gyorsítót. A Microsoft vélhetőleg a Xenoshoz
hasonló képességű GPU-t képzelt el az API-jához, de az nV nem éppen ebbe az irányba lépet.
Mindenesetre sokkal jobban meg kellet volna határoznia az MS-nek, hogy mit ért D3D10 gyorsító alatt,
bár talán az nv is tudta, hogy milyen hardver illik az új API-hoz, csak bojkottálni akarta az AMD
Xenos-ból származó előnyét.
Az MS felfogásában minden bizonnyal az R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez.
A probléma, hogy az R600-ra jellemző irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz
optimalizált driver rutinok amik még tényleg gyerekcipőben járnak, főleg D3D10-ben). Ha az nV annó
egy éve a G80-nal a Xenos-hoz hasonló képességű hardvert ad ki akkor elvétve verte volna a rendszer
a régi x1950XTX-et és a 7950GTX-et. Ennek köszönhetően a G80 egyfajta D3D9-D3D10 hibrid lett, belőve
az életciklusát a jelenlegi időszakra. Lényegében két rivális rendszer borzasztóan széthúz. Mondok
egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben
az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelő
eredményt, ehhez szükség van textura fetch-re ami igen nagy időveszteség a memória címzése végett.
D3D10-ben lehetőség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége
hajtja végre és meg is van az eredmény. Két eltérő megoldás és a jelenlegi D3D10-es karikkal
mindkettő kivitelezhető. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú
kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentősen
lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendő?
Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettő algoritmust. Az MS a D3D10-es
API-val a számlálós megoldást próbálná erőltetni, hiszen a textura fetch nélkülözése miatt
jelentősen gyorsabban van eredmény.
A D3D10 legnagyobb újítása a Unified Shader. Ha megnézed a fejlődést akkor látható, hogy a Pixel
Shadert használják orba-szájba. A Vertex Shader kihasználatlan terület. Ezt annak köszönheti, hogy
eddig kevés volt a karik Vertex feldolgozó képessége. A Unified kialakítással az MS azt akarta
elérni, hogy minden shader típus hasonló sebességgel fusson. Egy valódi Unified Shader rendszer
ugyanolyan gyorsan végez bármilyen Shader kóddal. Ez lenne a D3D10 áttörése. Homokszem a G80-nal
kerül a rendszerbe. Az nv rendszere gyenge tejesítményt nyújt Vertex és főleg Geometry Shader alatt.
Többnyire a G80 problémája a késleltetésre vezethető vissza. Egy Shader proci ugye 8 Stream prociból
áll (+ 2 darab SFU, de ez most nem lényeg), ezáltal 32-es batchekkel dolgozik Pixel számítás esetén.
Ez azért jó, mert ez a batchméret lefedni a textura fetch esetében bekövetkező elérési idő kiesését,
és a Dynamic Branching hatékonysága is megfelelő. Vertex Shader esetén 16-os batcheket számol,
elméletileg azért, mert kevés a cache mérete egy futószalagon belül. A kicsi a batchnél érezteti
hatását a elérési idő kiesése. De mivel a mai programok nagyon kevés vertex Shader kódot
tartalmaznak így a problémát kompenzálja a Fragment számítás gyorsasága. Sajna Geometry Shader
esetén is a cache mérete lehet a probléma csak itt jóval több adatot kell elhelyezni, így jobban
érezteti a hatását. Ennek a kompenzálására nagyon kicsi tömbökkel operál a rendszer, mivel így fér
bele a szűkös memóriába. Azonban a kis batch duplán visszaüt, hiszen az elérési idő nem lesz
lefedve, így a számítás az adat megérkezéséig szünetel. Látható, hogy részecske alapú GS-nél még úgy
ahogy jól működik a G80, de egy nagymérető Vertex tömböt kap nem megy neki normális sebességgel a
számítás. Nagyon erdekes az AMD megoldása a GS feladatokra, az R600-ban. A Shader feldolgozók
mellett elhelyezett egy Memory Read/Write Cache-t, azoknak az adatoknak amik időlegesek és nem
mennek tovább a ROP egységeknek.
Szvsz annyi stikli drült ki a G80-ról mostanra, hogy alapvetően nem egy korrekt felfogású rendszer.
A manapság kiderült Texture leak még tovább rontja a helyzetett, mert egyelőre megjelenés óta nincs
rá javítás, és feltételezem, hogy szép megoldáshoz hardveresen is változtatni kellene.
Dehát akinek megéri az szórja G80-ra a pénzét.
Memóriavezérlési probléma. A megjelenés után fedezték fel, de csak most került nyilvánosságra, mert
anyáztak a vásárlók az nV fórumán, és magyarázatott kellett adni. Lényegében "texture leak"
probléma, tehát a nem használt texturák bentmaradnak a memóriában és elzabálják a helyet, ezért a
GF8800 sorozat teljesítménye folyamatosan csökken. A 320MB-os GTS-t érinti az ügy a legjobban, mert
neki van a legkisebb memóriája. Elméletileg azért húzódik a javítás kiadása ennyit (cirka pár
hónap), mert a jelenleg ismert megoldások használata esetén, más területen nem működik jól a kari.
Javítás egyelőre annyi, hogy lépj ki ALT-TAB-bal a játékból és vissza, illetve ha nem támogatja a
program a taskváltást akkor zárd be és indítsd újra."
-
#3180 sima alpdriver van fent amit adtak vele most csináta először 2 hónap alatt majd ha lesz az a homokzsák textúra gebasz arról nyomatok képet -
#3179 driver hiba,szerintem
majd javítják :) -
#3178 valami ilyesmit kéne látni csak ezen a képen messzebről van a lényeg hogy a nagy fényesség helyett az épületeket kellene látni meg mögötte a dombot stb.
-
#3177 Jah, textúra robbanás XD
-
#3176 ez mi?
robbanás? -
#3175 8800gts ez az a memóriamegtelős hiba vagy súlyosabb
-
#3174 Hy all!
Hogyan tudom használni a Vivid funkciót? Meg az egyéb ilyen videó-val kapcsolatos dolgokat amit támogat a kártyám?
Előre is köszönöm! -
virs lee #3173 Már elég sok "nincs kétségem" ötletet láthattunk, ami a tervrajzig se jutott el. -
Abu85 #3172 Nem 200W-ra hitelesített levegőhűtő lesz benne. Az új gyártástechnológiák megoldják, hogy ne legyen a fogyasztás akkora.
A GPU-k fogyasztása pedig azét magas, mert ezen a területen fejlesztésre nem szánnak akkora összeget, mint a CPU fejlesztésére. Eleve a GPU üzletág nem annyira nyereséges, ha még bizonyos részeire több pénzt költenének akkor nem érné meg nekik. Az IDF-en volt egy ilyen bemutató, ahol azt részletezték, hogy ha a GPU gyártástechnológiák fejlesztésére több pénz lenne akkor az R600 sem fogyasztana, 80-100W-nál többet. Jelenleg az Intelnek és az AMDnek a fogyasztás csökkentése a fő fejlesztési irányvonal, így nincs kétségem, hogy a tervezet 200W tartható lesz. -
virs lee #3171 Ahhoz nem kell 30 év intel gyártósoros tapasztalat hogy rájöjjél hogy ha 1 ucc melegszik x-et, akkor 2 az 2x-et. A procikat eddig is az elérhető legkisebb csíkon nyomták, és a húzósabbak - core2 energiatakarékosság ide vagy oda - a 120-140W-ot benyalják. A GPU általában 1 generációval le van maradva csíkszélességben, kicsit azon talán lehetne gyúrni, de 0W abból se lesz. Ráadásul ha ezt a 2 kazánt egymás nyakára pakolod, akkor kis területen fognak k. sok hőt leadni (ráadásul egymást fűtik), pedig külön-külön is éppenhogy csak el tudják vezetni a hőjüket. Majd gyárilag folyékony nitrogénhűtést adnak hozzá? -
spytime9 #3170 úhhhhh isten vagy nagyon nagyon köszi!!!!!!! -
#3169 Sőt, egy az nvidia fórumról :)
"OK, I installed the 162.22 drivers. No problems, all runs well and now I have Digital Vibrance controll"
Asszem ennél több nem kell. -
#3168 Jah értem...azthittem már Vista van fennt
Google első találat:
"actually had change to test both new ones 163.11 and the 162.22 and both seems to work on Digital Vibrance and fan speeds.. I am using Gainward 8600 GT"
Ez alapján biztos lehetsz benne hogy megy a vibrance, de hátha valaki megnézi neked. -
spytime9 #3167 de ez igaz! de nem szeretnám fel rakni a vistát amig nem tom benne van-e vagy sem!!! mert eddig ezért nem tettem fel!!! nekem is xp-m van,de amint benne van a 162.22 (el irtam sorry) vagy az uj bétába 163.11.be már rakom is a vitátttttt!!! -
#3166 Szerintem tedd fel az új drivert, nem vesztesz vele semmit, ha meg nincs benne a vibrance, akkor visszarakod a régit. Nem? :) -
spytime9 #3165 jaja biszti elirta a srác! -
#3164 Öööö...162.18 az nem XP-s driver? Mert nekem is 162.18 van fennt. (és XP-m van :D ) -
spytime9 #3163 Srácok kérlek SOS segítsetek !!! akinek 8800 karija van és vistát használ és fenn van az új 162.18 vagy az uj béta 163.11 forcware!!!!
Kérem szépen nézze meg,hogy benne van már a digitál vibrance!?
Mert az új 163.11 már benne van!!!!
Be másolok egy másik fórum hozzá szólástttttt !!!
"Vélemény: Használj 163.11-est, időközben kijött az is. Egyébként nagyon jó a 162.18, főleg azért, mert végre van Digital Vibrance 8800-asokon, és a teljesítmény már XP-s szint. "
Kérlek valaki nézze meg!!!! sos -
Abu85 #3162 Gondolom sok tapasztalatot szereztél az életben a gyártástechnológiákról. Láthatod te is, hogy egy eltérő felépítés mennyivel másabb hőtermelést eredményez Prescott->Conroe. -
Abu85 #3161 De itt az a baj, hogy nincs más út. A kommunikációs csatornák eltüntetése az egyetlen, hangsúlyozom egyetlen használható terv. Abból kell főzni ami van, nem tervezhetünk teljesen új architektúrát, hiszen az IBM PC platform tartópilléra, hogy az 1980-ban írt 8086-os kód még mindig fut a mostani gépeken. Arra várunk, hogy a modernebb RISC architektúrák olyan előnyre tegyenek szert, hogy ne okozzon nekik gondot az x86 emuláció. -
virs lee #3160 Hát ha csak úgy nem. Lakapcsolja a fél procit / vga-t amikor offiszozol, és úgy megvan a 200W. Már lehet is eldobni a vízhűtést, éljen a hűtésmentes tuning! ^^