9761
10645648441175096535.jpg
  • Bmx01
    #3199
    legközelebb nem várom + a 3 évet legközelebb másfél éven belűl cserélek mindent +int sztem.
  • Bmx01
    #3198
    KÖSZ a sok lehetőséget

    "ne vegyél asust, idebent leteszteltünk jópárat, inno sokkal jobban húzható...."
    nem akarom húzni nekem 9600xt-m volt 3 évig a váltás PCIE 8600gt-re így is hatalmas lessz meg szinte kicseréltem az egész gépet nyáron de maradok az asus-nál szerintem.
  • w77d
    #3197
    szerinted ez 8800gtx esetében is így van? én meglepődtem mennyire nem bírja a húzást a karim
  • NeoMaN
    #3196
    ne vegyél asust, idebent leteszteltünk jópárat, inno sokkal jobban húzható....
  • schrank
    #3195
    egyszer volt egy németjuhászunk nnna annak volt a neve L...
  • schrank
    #3194
    ez az aminek látszik
  • grebber
    #3193
    Néztem neked párat:

    Lord:

    Asus EN8600GT 256MB PCIE 29 900 Ft
    Asus EN8600GT Silent 512MB PCIE 36 900 Ft

    Aqua:

    Asus GeForce EN8600GT 256MB PCIExpress 3 év gar. 30.480FT
    InnoVision GeForce 8600GT 256MB DDR3 PCIExpress 1 év gar. 23.100FT :D
    InnoVision GeForce 8600GT 512MB PCIExpress 1 év gar. 23.520FT

    PC Land:

    LEADTEK PCIE GF 8600GT 256MB Br:28470 Ft
    ASUS PCIe EN8600GT SILENT/HTDP/256MB Br:32520 Ft
    EVGA PCIe 8600GT256MB Br:33240 Ft
    MSI PCIe NX8600GT-T2D256EZ Br:33360 Ft
    ASUS PCIe EN8600GT/2DHT/256MB Br:34440 Ft

    PCX:

    MSI NX8600GT OC 256MB GDDR3 PCIe Br: 29742FT
    Asus Geforce 8600GT/2DHT/256M Br: 32421FT
  • Bmx01
    #3192
    hell
    Most akarok vásárolni asus 8600gt-t tudnátok v.mi olcsó netshop-ot ajánlani??
    Előre is kösz.
  • tmisi
    #3191
    Ez mindig is így volt...

    Nem is tudtam, hogy az NV fagyigyárakat is támogat. Vagy épp mást...
  • berczely
    #3190
    Nah és megéri most hd2900xt-t venni azt sem tudod kihasználni mire meg kitudnád kiadnak jobbat ez meg elavul...
  • berczely
    #3189
    Egy dolgot még mindíg nem értek!Mért nincs sok játéknál élsimítás amikor választható opció a 2x,4x,6x élsimítás néhol 8x -is!Beállítom de semi nem látszik mintha be sem lenne állítva!És nem a control panelről bezsélek!
  • zoolee
    #3188
    Ge.i ATIFOSOS !
  • grebber
    #3187
    Fincsi Nvidia nyomos csokoládé fagylalt!
  • eddie2
    #3186
    Nem vagyok az nvidia ellen de ha már találtam egy ilyet
  • virs lee
    #3185
    A 64 bites procinak most van értelme? Hány 64 bites játékot futtatsz? Pedig az már hány éve kint van... Mire lenne DX10 game, már lesz DX10.1 is, meg vagy 3 új generáció.
  • schrank
    #3184
    mivel hogy már csak "dx10"-es kareszokat nyomnak a "felesleges venni" hülye állítás mert előbb fogynak el a 9-esek mint ahogy bejönnek a modernek
  • virs lee
    #3183
    Ezt Abu85 írta, gondolom több fórumra is shift+ins-elte. A lényege annyi hogy DX10-ben valszeg a 2900 XT jobb.

    DE:

    1. Nincs valódi DX10 game. (Majd egyszer...)
    2. Még a DX10-hez tartozó Vistát se veszi kezébe normális cég az SP1-ig, ami talán jövőre megjelenik, hacsak szokás szerint nem csúszik megint, és majd csak ezután jöhetnek rá a gamék.
    3. Mint Abu85 is elismerte közel sem biztos hogy az ATI-nak kedvező full DX10 lesz a jövő, lehet hogy marad a DX9 kiegészítve DX10 effektekkel, akkor meg hiába jobb az ATI olyan dologban ami nincs kihasználva.
    4. A fentiekből látszik hogy mire DX10 only gamék lesznek, az nem a jövő hét, simán lesz 1-2 év, addig még pár generáció lecsorog a videokártya fronton. Majd az Nvidia is behajít egy GS-t a GPU-ba, ha nagyon kelleni fog.
    5. A legfontosabb: mire ez bekövetkezik, a mostani kártyák már elavultak lesznek, és senkit nem fog érdekelni a DX10 teljesítményük, mint ahogy a Riva128 DX10 képességét se hiányolja senki. Addigra jobb kártyát fogsz kapni olcsóbban. Felesleges most azért kártyát venni amit ki se tudsz használni, mire ki tudnád, háromszor elavult. Egyszer majd lesz DX12, DX13 is, azt se tudják a mostaniak, és nem is várja el senki tölük.

    Jelen pillanatban, és még vagy 1 évig minimum DX9 van, esetleg DX9 kiegészítve DX10 effektekkel, ebben az Nvidia sokkal jobb mint az ATI.
  • berczely
    #3182
    szóval ez most ien g80 fikázó?
  • repvez
    #3181
    Ezt egy másik forumon találtam, mi errol a véleményetek?
    "Nvidia GeForce 8000-es sorozat turpisságai:

    Csak a D3D10 támogatása kérdéses. Alapvetően a D3D szabvány olyan méretűre nőtte ki magát, hogy
    nehéz megreformálni a rendszert. A D3D10 némileg megváltozott a D3D9-hez képpest, eleve az MS dönti
    el, hogy melyik kari D3D10-es, tehát nincs önjelölés. Ez azt a problémát volt hivatott megszüntetni,
    hogy minden D3D10-es VGA támogassa 100%-ig a szabványt, ugye volt egy kis ferdítás az x1000-es
    Radeonnál, amikor az Ati a SM3.0 legnagyobb újítását a VTF-et nem támogatta. Igazából most is baj
    van. Az nV és az AMD másképp képzeli el a D3D10-es gyorsítót. A Microsoft vélhetőleg a Xenoshoz
    hasonló képességű GPU-t képzelt el az API-jához, de az nV nem éppen ebbe az irányba lépet.
    Mindenesetre sokkal jobban meg kellet volna határoznia az MS-nek, hogy mit ért D3D10 gyorsító alatt,
    bár talán az nv is tudta, hogy milyen hardver illik az új API-hoz, csak bojkottálni akarta az AMD
    Xenos-ból származó előnyét.
    Az MS felfogásában minden bizonnyal az R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez.
    A probléma, hogy az R600-ra jellemző irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz
    optimalizált driver rutinok amik még tényleg gyerekcipőben járnak, főleg D3D10-ben). Ha az nV annó
    egy éve a G80-nal a Xenos-hoz hasonló képességű hardvert ad ki akkor elvétve verte volna a rendszer
    a régi x1950XTX-et és a 7950GTX-et. Ennek köszönhetően a G80 egyfajta D3D9-D3D10 hibrid lett, belőve
    az életciklusát a jelenlegi időszakra. Lényegében két rivális rendszer borzasztóan széthúz. Mondok
    egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben
    az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelő
    eredményt, ehhez szükség van textura fetch-re ami igen nagy időveszteség a memória címzése végett.
    D3D10-ben lehetőség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége
    hajtja végre és meg is van az eredmény. Két eltérő megoldás és a jelenlegi D3D10-es karikkal
    mindkettő kivitelezhető. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú
    kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentősen
    lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendő?
    Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettő algoritmust. Az MS a D3D10-es
    API-val a számlálós megoldást próbálná erőltetni, hiszen a textura fetch nélkülözése miatt
    jelentősen gyorsabban van eredmény.
    A D3D10 legnagyobb újítása a Unified Shader. Ha megnézed a fejlődést akkor látható, hogy a Pixel
    Shadert használják orba-szájba. A Vertex Shader kihasználatlan terület. Ezt annak köszönheti, hogy
    eddig kevés volt a karik Vertex feldolgozó képessége. A Unified kialakítással az MS azt akarta
    elérni, hogy minden shader típus hasonló sebességgel fusson. Egy valódi Unified Shader rendszer
    ugyanolyan gyorsan végez bármilyen Shader kóddal. Ez lenne a D3D10 áttörése. Homokszem a G80-nal
    kerül a rendszerbe. Az nv rendszere gyenge tejesítményt nyújt Vertex és főleg Geometry Shader alatt.
    Többnyire a G80 problémája a késleltetésre vezethető vissza. Egy Shader proci ugye 8 Stream prociból
    áll (+ 2 darab SFU, de ez most nem lényeg), ezáltal 32-es batchekkel dolgozik Pixel számítás esetén.
    Ez azért jó, mert ez a batchméret lefedni a textura fetch esetében bekövetkező elérési idő kiesését,
    és a Dynamic Branching hatékonysága is megfelelő. Vertex Shader esetén 16-os batcheket számol,
    elméletileg azért, mert kevés a cache mérete egy futószalagon belül. A kicsi a batchnél érezteti
    hatását a elérési idő kiesése. De mivel a mai programok nagyon kevés vertex Shader kódot
    tartalmaznak így a problémát kompenzálja a Fragment számítás gyorsasága. Sajna Geometry Shader
    esetén is a cache mérete lehet a probléma csak itt jóval több adatot kell elhelyezni, így jobban
    érezteti a hatását. Ennek a kompenzálására nagyon kicsi tömbökkel operál a rendszer, mivel így fér
    bele a szűkös memóriába. Azonban a kis batch duplán visszaüt, hiszen az elérési idő nem lesz
    lefedve, így a számítás az adat megérkezéséig szünetel. Látható, hogy részecske alapú GS-nél még úgy
    ahogy jól működik a G80, de egy nagymérető Vertex tömböt kap nem megy neki normális sebességgel a
    számítás. Nagyon erdekes az AMD megoldása a GS feladatokra, az R600-ban. A Shader feldolgozók
    mellett elhelyezett egy Memory Read/Write Cache-t, azoknak az adatoknak amik időlegesek és nem
    mennek tovább a ROP egységeknek.

    Szvsz annyi stikli drült ki a G80-ról mostanra, hogy alapvetően nem egy korrekt felfogású rendszer.
    A manapság kiderült Texture leak még tovább rontja a helyzetett, mert egyelőre megjelenés óta nincs
    rá javítás, és feltételezem, hogy szép megoldáshoz hardveresen is változtatni kellene.
    Dehát akinek megéri az szórja G80-ra a pénzét.

    Memóriavezérlési probléma. A megjelenés után fedezték fel, de csak most került nyilvánosságra, mert
    anyáztak a vásárlók az nV fórumán, és magyarázatott kellett adni. Lényegében "texture leak"
    probléma, tehát a nem használt texturák bentmaradnak a memóriában és elzabálják a helyet, ezért a
    GF8800 sorozat teljesítménye folyamatosan csökken. A 320MB-os GTS-t érinti az ügy a legjobban, mert
    neki van a legkisebb memóriája. Elméletileg azért húzódik a javítás kiadása ennyit (cirka pár
    hónap), mert a jelenleg ismert megoldások használata esetén, más területen nem működik jól a kari.
    Javítás egyelőre annyi, hogy lépj ki ALT-TAB-bal a játékból és vissza, illetve ha nem támogatja a
    program a taskváltást akkor zárd be és indítsd újra."
  • schrank
    #3180
    sima alpdriver van fent amit adtak vele most csináta először 2 hónap alatt majd ha lesz az a homokzsák textúra gebasz arról nyomatok képet
  • Gabesz amd64
    #3179
    driver hiba,szerintem

    majd javítják :)
  • schrank
    #3178
    valami ilyesmit kéne látni csak ezen a képen messzebről van a lényeg hogy a nagy fényesség helyett az épületeket kellene látni meg mögötte a dombot stb.
  • Eagle16
    #3177
    Jah, textúra robbanás XD
  • Gabesz amd64
    #3176
    ez mi?

    robbanás?
  • schrank
    #3175
    8800gts ez az a memóriamegtelős hiba vagy súlyosabb
  • SD456
    #3174
    Hy all!

    Hogyan tudom használni a Vivid funkciót? Meg az egyéb ilyen videó-val kapcsolatos dolgokat amit támogat a kártyám?

    Előre is köszönöm!
  • virs lee
    #3173
    Már elég sok "nincs kétségem" ötletet láthattunk, ami a tervrajzig se jutott el.
  • Abu85
    #3172
    Nem 200W-ra hitelesített levegőhűtő lesz benne. Az új gyártástechnológiák megoldják, hogy ne legyen a fogyasztás akkora.
    A GPU-k fogyasztása pedig azét magas, mert ezen a területen fejlesztésre nem szánnak akkora összeget, mint a CPU fejlesztésére. Eleve a GPU üzletág nem annyira nyereséges, ha még bizonyos részeire több pénzt költenének akkor nem érné meg nekik. Az IDF-en volt egy ilyen bemutató, ahol azt részletezték, hogy ha a GPU gyártástechnológiák fejlesztésére több pénz lenne akkor az R600 sem fogyasztana, 80-100W-nál többet. Jelenleg az Intelnek és az AMDnek a fogyasztás csökkentése a fő fejlesztési irányvonal, így nincs kétségem, hogy a tervezet 200W tartható lesz.
  • virs lee
    #3171
    Ahhoz nem kell 30 év intel gyártósoros tapasztalat hogy rájöjjél hogy ha 1 ucc melegszik x-et, akkor 2 az 2x-et. A procikat eddig is az elérhető legkisebb csíkon nyomták, és a húzósabbak - core2 energiatakarékosság ide vagy oda - a 120-140W-ot benyalják. A GPU általában 1 generációval le van maradva csíkszélességben, kicsit azon talán lehetne gyúrni, de 0W abból se lesz. Ráadásul ha ezt a 2 kazánt egymás nyakára pakolod, akkor kis területen fognak k. sok hőt leadni (ráadásul egymást fűtik), pedig külön-külön is éppenhogy csak el tudják vezetni a hőjüket. Majd gyárilag folyékony nitrogénhűtést adnak hozzá?
  • spytime9
    #3170
    úhhhhh isten vagy nagyon nagyon köszi!!!!!!!
  • Eagle16
    #3169
    Sőt, egy az nvidia fórumról :)
    "OK, I installed the 162.22 drivers. No problems, all runs well and now I have Digital Vibrance controll"

    Asszem ennél több nem kell.
  • Eagle16
    #3168
    Jah értem...azthittem már Vista van fennt
    Google első találat:
    "actually had change to test both new ones 163.11 and the 162.22 and both seems to work on Digital Vibrance and fan speeds.. I am using Gainward 8600 GT"
    Ez alapján biztos lehetsz benne hogy megy a vibrance, de hátha valaki megnézi neked.
  • spytime9
    #3167
    de ez igaz! de nem szeretnám fel rakni a vistát amig nem tom benne van-e vagy sem!!! mert eddig ezért nem tettem fel!!! nekem is xp-m van,de amint benne van a 162.22 (el irtam sorry) vagy az uj bétába 163.11.be már rakom is a vitátttttt!!!
  • Eagle16
    #3166
    Szerintem tedd fel az új drivert, nem vesztesz vele semmit, ha meg nincs benne a vibrance, akkor visszarakod a régit. Nem? :)
  • spytime9
    #3165
    jaja biszti elirta a srác!
  • Eagle16
    #3164
    Öööö...162.18 az nem XP-s driver? Mert nekem is 162.18 van fennt. (és XP-m van :D )
  • spytime9
    #3163
    Srácok kérlek SOS segítsetek !!! akinek 8800 karija van és vistát használ és fenn van az új 162.18 vagy az uj béta 163.11 forcware!!!!
    Kérem szépen nézze meg,hogy benne van már a digitál vibrance!?
    Mert az új 163.11 már benne van!!!!
    Be másolok egy másik fórum hozzá szólástttttt !!!

    "Vélemény: Használj 163.11-est, időközben kijött az is. Egyébként nagyon jó a 162.18, főleg azért, mert végre van Digital Vibrance 8800-asokon, és a teljesítmény már XP-s szint. "

    Kérlek valaki nézze meg!!!! sos
  • Abu85
    #3162
    Gondolom sok tapasztalatot szereztél az életben a gyártástechnológiákról. Láthatod te is, hogy egy eltérő felépítés mennyivel másabb hőtermelést eredményez Prescott->Conroe.
  • Abu85
    #3161
    De itt az a baj, hogy nincs más út. A kommunikációs csatornák eltüntetése az egyetlen, hangsúlyozom egyetlen használható terv. Abból kell főzni ami van, nem tervezhetünk teljesen új architektúrát, hiszen az IBM PC platform tartópilléra, hogy az 1980-ban írt 8086-os kód még mindig fut a mostani gépeken. Arra várunk, hogy a modernebb RISC architektúrák olyan előnyre tegyenek szert, hogy ne okozzon nekik gondot az x86 emuláció.
  • virs lee
    #3160
    Hát ha csak úgy nem. Lakapcsolja a fél procit / vga-t amikor offiszozol, és úgy megvan a 200W. Már lehet is eldobni a vízhűtést, éljen a hűtésmentes tuning! ^^