9761
10645648441175096535.jpg
  • Livius
    #3599
    Esetleg lesz majd olyan játék, ahol pont ezért nem fogja bírni a játékot.
  • Brand
    #3598
    Hali!

    mivan akkor,ha 8600ge videokártyámat, tápcsati nélkül használom?

    Illetve idáig semmi különbséget nem vettem észre,szóval fontos, hogy a tápcsatlakozó belegyen dugva,vagy nem lényeg,

    Bocs,ha láma a kérdés, de Ti biztosan jobban tudjátok ezt..

    Kösz
  • janos666 #3597
    Nah, most találtam végre itthon egy működő floppyt így nekiestem a BIOS-editálásnak és kihúztam a kártyából amit bírnak a shaderek. Rivatunerrel néztem hogy az eddigi max GPU órajelem 648 volt (661-et is beállíthattam, de G80-nál nemhogy tizedre pontosan nem állítható az órajel, de ~15Mh-enként ugrik egyet mikor átléped a következő egységet, pl. 447 és 461 közt minden értéken 448 ; és ezt játsza a memória is, nálam épp 20-assával ugrál 1116 és 1135 közt) amihez 1566-os shader órajel társult. Beállítottam a BIOS-ban 500Mhz-et GPU-ra és 1566-ot shaderre és megint húzni kezdtem a GPU-t és elment a shader 1674-ig. Aztán BIOS editorba bepötyögtem hogy GPU 648, shader 1674, meg akkor már a RAM-ot is 1116-ra és most már nem kell többé F8-at nyomkodnom hogy 64-bites Vista alatt is tudjak rivatunerrel tuningolni.

    Így már mjdnem elértem a régi Gainward kártya szintjét ahol default szorzóval volt 710-en a GPU. Ha sikerülne kipiszkálni hogy mi a legmagasabb fesz amin még nem kapcsol be a GTS-ek túlfeszvédelme akkor talán meglenne még az az 1 lépcső shaderekkel. (most minimális +0.05 voltot adtam, +0.1-el azonnal fagy)
  • janos666 #3596
    Ja, mikor D-sub kábellel használod a monitorod akkor ez csinál analóg jelet a képből. Ezt annyit szab meg hogy mia mayx felbontás, de mai kártyáknál kevés ember súrolja ezek határait. (2000akárhanyas felbontások 100Hz körül)
    Bár én régen figyeltem hogy ha 60-ról 100Hz-re raktam a kártyát (V-sync off) akkor csökkent az FPS.
  • rvn
    #3595
    Random Access Memory Digital-to-Analog Converter (RAMDAC! Ez a régebbi kártyákon is van... és ált 400 MHZ...feladata a digitális jelek analóggá alakitása...
  • grebber
    #3594
    De ez még mindih nem válasz a kérdésemre hogy a rákért ennyire olcso az INNO?? VGA-t meg nem huzom soha minek.
  • janos666 #3593
    Most csak magadat kavarod meg. A GPU és a shader órajelek közt van egy állandósított szorzó, ami akkor rögzül mikor beállítják BIOS-ban külön a GPU és shader órajeleket. Ezután ha húzod a GPU-t (mert szoftveresen csak azt tudod) akkor azzal párhuzamosan emelkedik a shader a már meglévő arányszám szerint.
    Emiatt van az is hogy csak durva pontossággal állítható a GPU freki, +/-10Mhz-ek is vannak a tényleges és a beállított értékek közt, a köztes értékek közt tologatva semmise változik, hirtelen ugri egyet, hogy értelmes szorzó maradjon a GPU és shader közt.
    De a gyári tuningos kártyáknál is szinte mindíg megmarad a referenciához képesti GPU/Shader szorzó, ugyanúgy húzzák a kártyát mintha te tolnád fel a GPU órajelet otthon és menne vele a shader.

    És még annyit hogy az itthon kapható gyári tuningos darabokból szerintem csak a Gainward Goldensamplenak van értelme. Vagy ilyen XFX XL/XXL, BFG OC jöhetne szóba, de olyat itthon ritkán látni. Ne vegyél Inno vagy MSI OC-t, mert semmivel se lesz magasabban a kárty vége mint a sima, nem OC példányoknál.
  • zoolee
    #3592
    Annál nem lényeg igazából, az inno nagyon jól húzható, szal ahogy húzod a GPU t úgy emelkedik a shader clock is.
  • zoolee
    #3591
    Ramdac az asszem a memóvezérlője.
  • grebber
    #3590
    Csak azérdekelne hogy pontosan mennyi fut az inno 8600GT esetében.Mert marha olcsó többihez képest!

    Meg mi a ramdac?

    Rohadjon meg ahogy fejlödik egyre több baszás van már régen volt GPU és memó freki mostmeg má 4 amiből 2-höz közöm sincs :(
  • zoolee
    #3589
    Eszkimondta???wtf
    Az inno alapkariainál biztos referencia mivel az inno nem sűrűn tuningol.
    De pl galaxy nál már sztem 10-20 = kal már feljebb srófolták az értéket.
  • grebber
    #3588
    Tehát mindegyiknél ugyanannyi?
  • zoolee
    #3587
    Referencia.
  • grebber
    #3586
    #3581 -re valaki?

  • janos666 #3585
    Ja, de az OC kártyákon nem szokták bántani a GPU/Shader szorzót, csak feltolják a GPU-t és megy vele a shader.
    Viszont ha manuálisan átírom a BIOS-ban akkor nem gond ha egyedi szorzóval flashelem fel a shader órajelet? Pl. most 661-et bír a GPU, de nem tudom hogy a shader menne-e 1566 fölé is mert akkor se megy tovább a GPU ha nagyobb GPU-feszt állítok be. (amin hosszútávon instabil, de egy darabig bírja és addig is azonnal hibázik 661 fölött ahogy kissebb, majdnem alapfeszen)
  • stupido
    #3584
    thnx
    hazaérek kipróbálom
  • Evogordon
    #3583
    Ha húzod a mag órajelét akkor az párhuzamosan húzza a stream proceszorok órajelt is. Nálam így volt a 8800gts-el.
  • Drizzthsz
    #3582
    A shader clockot szoftveresen bioscsere nélkül lehet valamivel állítani?
  • grebber
    #3581
    Ez az shader clock az innonál mennyi?
  • Evogordon
    #3580
    Az aszem a stream proceszorok órajele.
  • Inquisitor
    #3579
    "Most ezt nemértem mi az a shader clock ami 1180mhz??"

    Akkor már régen rossz ;)
    Ettől függ nagyban a VGA teljesítménye. Magyarul ha szénné tudnád húzni a GPU órajelét és a ramot, akkor se számítana, csak minimálisan, ha nem húzod mellé a shaderek (Steam) órajelét. Ezért van az, hogy normálisabb OC 8600GT mellé odaírja a gyártó ezt az értéket is, akinek meg lóf ... lótüdőt sem ér a tuningja, az csak a GPU/Mem frekit vési fel.
  • grebber
    #3578
    Product Inno3D Geforce 8600 GT 256MB GDDR3
    Core Frequency: 540MHz
    Memory Frequency: 1400MHz
    RAMDAC: 400MHZ

    Leadtek WinFast PX8600GT 256MB GDDR3
    GPU: 540MHz
    Shader Clock: 1180MHz
    256MB GDDR3: 700MHz (ez a memory freqvency ha jól értelemzem)

    Most ezt nemértem mi az a shader clock ami 1180mhz??
  • Sgtfathi
    #3577
    Igen.A villanyóra szekrénybe meg bekötöttem a Gtx-et.
  • Falconer
    #3576
    A villanyórát? :D
  • Sgtfathi
    #3575
    Nem is használom csak a szekrény tetejére felraktam.Tudod hogy van ,jól néz ki.
  • Falconer
    #3574
    Villanyorát is megnézném hogy pörög :)
  • Sgtfathi
    #3573
    Meghozták az Inno 8800Gtx-em hát kedves 8800-tulajok nem semmi ez a kari!
    Amig a 8800Gts320-as el se volt különösebb bajom de ez a szörny lefölöz mindent !
    Használtan vettem a karit de érdekes hogy alapon 75fok terhelve 80-82!
    Na mindegy remélem nem lesz gáááz!
  • janos666 #3572
    Valószinűleg driverhiba, adj neki 163.44-et. Ha több driverrel csinálja próbálj mindent alapbeállításon hagyni a driver control panelében és ha úgy is csinálja akkor vidd vssza a kártyát.
  • stupido
    #3571
    hi all!

    Egy inno3d 8600gt-m van.
    Egy csomó játékban füst effekteknél egy pepita alap látszódik. Ez mi?
  • sb1
    #3570
    Nálam 600/960-as beállításokon még hibátlanúl működik, rivatuner alatt a ventillátor 80%-ra van belőve...
  • zoolee
    #3569
    NEMTUDJUK!!!!!!!!!!
    MINDEN GPU-RAM MÁS!!!
  • a shot
    #3568
    de en konkrét értékekre gondoltam, egy-két jól bevált szintbeállítás kellene ami biztosan jó, tapasztalat szerint
  • zoolee
    #3567
    AddÍg mÍg nem hibázik..
    NEm szemcsésedik-csÍkozódik a kép.
    Na meg ugye amig nem fagy a meleg miatt.
  • a shot
    #3566
    szasztok

    van egy gainward8800GTS GS-em azt szeretném tudni hogy meddig érdemes felhuzni a karit hogy biztonsagos legyen és stabil
  • DummyBoy
    #3565
    Akkor jó ... nekem 83 volt a rekord asszem ... Egy Silverstone LC17-ben! Ami azért nem egy nagy ház ...

    Megnyugodtam ... bár anno a 6800-asom asszem 130 foknál kezdett riasztani, mikor megállt a hűtő rajta, szóval az a 85 nem olyan vészes :)

    Csak kiváncsi voltam mennyire van meleg ...
    Bár az mondjuk jó hogy terheletlenül 60%-on megy a venti, fél óra bioshock után meg 61% :) És ez volt a cél ... már csak a chipsetventimet kell kiiktatni, és csend lesz ...
  • tugyiti
    #3564
    Nem lesz szükség új grafikus vezérlőre a DirectX 10.1-hez
  • janos666 #3563
    Nem tudok összehasonlítás mondani mert rengeteget ingadozik a szobahőmérséklet is mostanság, és egyidőben raktam a kártyára voltmodot és új ventit. Azt tudom hogy így feszelve és húzva ezzel a hűtővel ebben a dögmelegben is elmegy 85 fok köré is ATI-tool-os teszt alatt (de korábbi kártyák tapasztalataiból egy játék se tudja annyira felhevíteni mint ez a stressteszt)
  • Brand
    #3562
    Hát köszi szépen, bár én nem értek annyira ,ezekhez a dolgokhoz, csak furcsa volt, hogy a Galaxy 8600 GE 1.0ns ddr3 256mb ,nem úgy néz ki ,mint ,ahogy a neten látom, mert dual dvi helyett 1 vga is van rajta,de a dobozon és a kártyán is ez a matrica van és a rendszer is 8600-nak ismeri fel stb...

    Egyébként ilyen eredmény született 3dmark alatt..

    [IMG][/IMG]
  • Inquisitor
    #3561
    Talán, de csak talán egy friss Everest képes kiírni külön a GPU, VRam és a shaderek órajelét. Bár biztos van tweak progi is ami képes rá. Ja és vigyáz ne keverd a 2D órajelet a 3D-vel, már többen szívrohamot kaptak ettől.
  • Brand
    #3560
    Sziasztok!

    Egy láma kérdésem lenne:

    Hol(hogyan) tudom megnézni a videokártyám paramétereit órajel stb...

    egy 8600GE-ről van szó..(a netem már elolvastam, hogy mit tud, csak azt nem tudom,hol kell megnézni..

    Egyébként 8600GT-ír bejelentkezőnek,vagy ez lényegtelen?

    Köszi