9761
-
stupido #3559 hi all!
Egy inno3d 8600gt-m van.
Az a problémám, hogy apl Flight Simulator X-ben, A Medal of Honor Airbornban(demo), meg egy csomó játékban füst effekteknél egy pepita alap látszódik. Ez mi? -
#3558 8600gt gts vs hd2600pro xt tuningolva is -
#3557 nekem is ac coolerem van -
#3556 ATI HD forumba nézzetek át
olvassátok el ami belinkeltem hd2950Pro DX10.1 :-) -
#3555 8500GE soha nem jobb a 8600-nál, mivel a 8500nek csak 16 shadere van a 8600 32-jével szemben. -
#3554 Ez akkora butaság, hogy nemigaz. Ilyen alapon senki ne vegyen semmit, mindenki legyen Pató Pál azt várja a jobbat és az annál is jobbat.
:))) -
#3553 Szép ... megkérdezhetem hány fokos igy terheletlenül/terhelve? :)
És előtte mennyi volt?
Én persze elfelejtettem fotózni ... de majd ha legközelebb szétszerelem akkor csinálok fotókat ...
Én egy ilyet applikáltam rá (Régóta nem tudtam sehova berakni, ide meg pont befért, de őgy hogy kb 1-2mm-re van az Audigy-mtől ... épp befért :)
De alig várom, hogy normális helyen legyen a gép, mert most 30 fok alatt nincs a szobahőmérséklet, és egy HTPC házban van a gép, szal nekem 71 és 82 a két véglet a rivatuner szerint :)
Mikor a régi hűtéssel kivettem, majdnem eldobtam a kártyát olyan meleg volt ... (Ráadásul nem is szoktam foglalkozni vele, ezért nemtom előtte mennyi volt ...) -
zoolee #3552 Hát, igazából 8 as szériát nem is érdemes venni ha igazán akarsz majd dx 10 el játszani, én inkább várnék a 9 es középkategóriájára. -
zoolee #3551 Igen, jobb de 2 k val drágább is.:). -
#3550 [HW] Nvidia és G92 hírek
Mivel most éppen egy noname összejövetel zajlik egy német kisvárosban - valami Lipcsében elvileg - így érkeztek infók teljesen érdektelen felsőkategóriás VGA-król is.
No a viccet félretéve: pár Nvidiás hírmorzsa következik :)
Elsőnek rögtön kérdéses, hogy hogyan nevezik majd a jelenleg G92 kódnéven fejlesztett GPU-val szerelt termékeket. A GeForce 9800 kézenfekvő magyarázat lenne, azonban egyes források elkezdtek 8950-ről beszélni. Nos, majd meglátjuk...
...mikor is? Novemberre ígérik őket, és úgy tűnik, hogy ellentétben az AMD-ATI kártyáival ezek nem fognak késni; szeptemberben már megkapják az első tesztpéldányokat a szerencsések, majd október táján esetleg rá is pislanthatunk mit tud valójában.
Annyit már most tudunk, hogy DirectX 10.1 kompatibilis lesz, tehát a DX10 csiszolgatásának már lesz valami értelme ilyen kártyával a gépben. Kérdés, hogy a szokásos, szépen hangzó "mit is tud a mi vasunk" erőfitogtatáson kívül lesz-e bármi haszna belátható időn belül - a DX10 dömpingje is várat még magára egyelőre.
Egy másik, nem szorosan ide kapcsolódó információ, hogy az Nvidia kártyáin ugyan még csak mutatóba jelent meg a Display Port, de minden G8? chippel szerelt VGA kompatibilis a legutóbb idén április elején frissített átviteli szabvánnyal. Az ok, amiért ez a következő generációs csatlakozó mégsem kerül rá a kártyákra egyszerű, és ezúttal bizony a "másik oldalon" van: monitor az nincs hozzá. De amint felbukkan a képmegjelenítők repertoárjában el fog terjedni.
info: Gamestar -
shrike7973 #3549 Cs!
Nézem itt az adatokat javitsatok ki ha tévedek de a 8600 gt a 7600 gt hez képest nem sokat fejlődött a dx10 en kivül... Érdemes lecserélni ha dx9 es gémekkel szeretnék jáccani? -
#3548 Ha már így felhozod megmutatom a sajátomat is. :D
Szerelés után az aztalon: [URL=http://img0.tar.hu/janos666/img/32212865.jpg]#01[/URL] ; [URL=http://img0.tar.hu/janos666/img/32212906.jpg]#02[/URL]
Aztán egy kis forrasztásmentes szigetelőszallaggal rögzített kábeles Vcore mod régi TV-khet való tripotikkal (nem volt 500 ohmos, 2-t összedobtunk és így kijöt...): [URL=http://img0.tar.hu/janos666/img/32212947.jpg]#03[/URL]
Aztán meg bent a házban: [URL=http://img0.tar.hu/janos666/img/32213085.jpg]#04[/URL] ; [URL=http://img0.tar.hu/janos666/img/32213046.jpg]#05[/URL] -
Inquisitor #3547 Persze Ha a 8600GE-re gondoltál, az igen. De jóval drágább is. -
Inquisitor #3546 Frászt, annál még a 7300GT GDDR3 is JOBB. -
#3545 8500GE jobb mint egy 8600GT? -
#3544 nm ;) -
#3543 akkor ezt még hanyagoljuk! amúgy kösz :) -
#3542 Nálam a Dirt lassab és sötét lett némely helyen vele :(
bioshockon se éreztem hú de nagy változást... -
#3541 próbálta valaki a 163.44 beta drivert?? aki igen, adhatna visszajelzést róla!
-
#3540 jaja láttam -
#3539 Egyébként a honlap szerint nem 620 ,hanem 650 a core clock..
Powered by GeForce® 8600GT GPU
0.08 micron process technology
PCI-Express x16 interface support
Memory: DDR3 256MB
Memory Interface: 128Bit
Core Clock: 650
Memory Clock: 1600MHz
Connector: Dual DVI + HDTV
-
#3538 köszi
már csak el kéne passzolnom a 7600gt-m :D -
#3537 Csak ajánlani tudom..egy ismerősömnek is ez a Forsa premium 8600gt van a gépében és "nagyon érti a dolgát" a kártya!
honlap -
#3536 Üdv!
Nem tudom volt-e már itt, de akinek hangos és meleg a G80, és nem fér vagy nem kell HR-03 Plus annak itt egy alternativa :)
[URL=http://logout.hu/laragirl83/2022/8800gtsgtx_sufni_hutes_mod.html]8800 hűtés "sufnituning" :)[/URL]
Ha volt akkor bocs! -
Abu85 #3535 Nem elég a precizítás csökkentése. Az utasításszavaknak is megfelelőnek kellett lennie, mert az FX teljesen VLIW rendszer volt. A Far Cry-ban és a HL2-ben is külön path-ot kapott. Teljesen az architektúrára optimalizált kódokkal. Eleve az FX Pixel shader processzora túl bonyolult volt a statikus kezeléshez. A Skalár FP16/32-es MAD Alu (2 darab Texturázóval)->2 darab FP32-os skalár Alu/Comb.(FP32-MUL/ADD, FP16-MAD). Tipikusan csak akkor kaptál jó eredményt ha célirányosan programoztál rá. A HL2-ben és a FC-ben az 5900-as FX-ek hozták a 9600XT teljesítményét. Nézd meg az Obliviont, az távolról sem tartalmaz bonyolultabb shadereket a fent említett két játéknál, de a csúcs FX5950Ultra nem képes a Radeon 9550 sebesgének még a felét sem hozni.
Egy programozónak az a feladata, hogy azokra a rendszerekre optimalizálja a programját amik elterjedtek, tök mindegy ki fizet a reklámért, mindenkinek érdeke a program jó futási eredménye. -
Inquisitor #3534 "Mert ezekszerint raklap olyan game amiben nvidia keze nagyban bennevan (nvidia logo virit elejükön) atin fognak jobban menni. Akkor nvidiának megéri pénzt ölni bele LOL!"
Miért, elmúlt pár évben is volt olyan NV logós cucc ami jobban futott bizonyos ATI vason, és volt olyan ATI-ra kihegyezett game, ami még is NV kártyán ment jól. Ha meg van egy univerzális motor (UE3), akkor igen csak meg kell izzadnia a kódereknek, hogy csupa olyan eljárást használjanak benne ami egyik vagy másik fél kártyáinak fekszik, nem?
Ha már szóbajött, én úgy látom, hogy a fagyásokat leszámítva a BS pont igen jól optimalizált játék lett, jól megy GF7, GF8, X1000 és HD2000 szérián is, logó ide vagy oda. De ebből nem lehet meszemenő következtetést levonni, egy UT3-ban ahol nagy nyílt terepek lesznek, lehet másként fog festeni. -
Inquisitor #3533 Ez a mókusvakítás okán van így, a DDR ramoknál nem a valós, hanem effektív órajelet tüntetik fel (2000MHz te esetedben) ami valós órajelben 1000MHZ vagy a körlüi értéknek felel meg. De az is lehet, hogy simán a 2D órajelet nézted el, mert ugye alapban leveszik a VGA-k az órajeleket, hogy ne melegedjenek feleslegesen. A vicc az egészben az, hogy az effektív órajelből adódó sebességét az életben nem éri el a valóságban semmi. -
#3532 Hmm? A HL2-ben azért volt külön FX renderpatch (ami nem volt, csak a cfg file szerint DX8.1-et állított be, talán az volt kedvesség hogy volt 8.1 patch is nem csak 8.0 és 9.0 és hogy látványbelileg alig volt különbség a 8.1 és 9.0 közt, talán csak a víz megjelenítéségben) mert ha erőtetve dx 9.0-ban futtattad a játékot akkor FX-eken sokat lassul, és csak a gyorsabb (5800/5900) kártyákon maradt játszható. (én dx9-ben toltam végig 5800-al) Az is tuti hogy régen Ati kártáykon futott jobban, közben volt egy kis változás, mert az EP1-hez csináltak SM3.0-ás motort ami előbb jött ki mint az ATI sm3-as kártyái és ennyi idő alatt az nvidia driverei is ledolgozták az Ati kezdeti előnyét. Ma meg már pssz, egy 8800GTS-t meg 2900XT-t nem Hl2-ben szokás összehasonlítgatni, max az antialising sebességre lenne jó, mert maxra tolt szűrők nélkül úgyis procilimites. -
Inquisitor #3531 "Nézd a HL2-őt, Ati játék ezt mindenki tudja, de bevallottan a GeForceFX-re volt a legjobban optimalizálva, sőt külön codepath-ot írtak hozzá."
OFF: Ez erős túlzás, és arról volt szó, hogy lebutította a fenébe a sahdereket 16 bitesre, mint ahogyan a FarCry is. Utóbbihoz kellett is patch, hogy ne tegye ugyan ezt a GF6-7 kártyákkal. :) -
#3530 aztán hogyan?
én csak kiskeres árakat látok mindenhol csak ismerősöm tud venni nekem nagykerből és nem tudja mindennek az árát fejből és kéne hogy mondjuk 15%-al olcsóbb minden és akkor tudok számolni érted??? -
Abu85 #3529 Miért ne érné meg. Mára nagyon kevés fejlesztő gondolja úgy, hogy az egyik karit jobban patronálja (tipikusan a kisebb pénzszűkében lévő csapatoknak fordul meg az ötlet a fejükben). Eleve a Logo-val nem optimalizálást vesz hanem reklámot. Teljesen elfogadott dolog, hogy valaki fizet nekem akkor én reklámozom, ez az üzletpolitika. Ettől én még ugyanúgy fogok más rendszereire is optimalizálni. Nézd a HL2-őt, Ati játék ezt mindenki tudja, de bevallottan a GeForceFX-re volt a legjobban optimalizálva, sőt külön codepath-ot írtak hozzá. Egy jó nevű fejlesztőcsapatnak nem érdeke az egyik céget előnyben részesíteni. Gondolj a Lost Planet-re, megérte nekik? Most csinálhatják a Patch-et, az nV fejét pedig szépen megmosta a Microsoft. Sőt a D3D10.1-ben csupa olyan eljárást vezetnek be amitől lelassítják a G8x-et. Megérte nekik? -
#3528 hasonlítsd össze:) -
#3527 cső
a nagykeres árak mennyivel olcsóbbak mint a kisker? -
sgteam #3526 Sziasztok!!!
Vettem egy asus EN8600gts vga karit aminek 675mhz a magóra jele és 2000mhz a memoria órajele, de nem megy csak 1008mhz miért?
-
#3525 Hm ezen jókat vihogok magamban.
Mert ezekszerint raklap olyan game amiben nvidia keze nagyban bennevan (nvidia logo virit elejükön) atin fognak jobban menni. Akkor nvidiának megéri pénzt ölni bele LOL!! -
Abu85 #3524 Hát az Unreal Engine 3-as játékoknak nem nagyon fognak az nV-sek örülni. A jelenlegi felhozatalból a GF7 tulajokat eléggé sziven fogja ütni, hogy a kártyájuk nem éppen a magas ALU:Tex arányt tartotta szem előtt. A GF8 is elég sok erőt ölt a texturázásba. Ez jelenleg jól jön, de év vége felé, már szűkös lesz a sávszélesség a texturázás minőségbeli javítására, és ekkor jön el a HD2000-es Radeonok ideje. Vadul elkezd nőni az ALU:Tex arány, és az R6xx architektúra egyre jobban fogja érezni magát, ezt még megspékeli az új elvű SBAA eljárás amivel a GF8-at galád mód belassítja az MS. A Rainbow Six: Vegas már intő jel, ott nagyon tetszik a megjelenítés az új Radeonoknak. Jellemzően a HD2900XT 8800GTX és Ultra közt teljesít, míg a HD2600XT lazán veri a 8600GTS-t. És a Vegas-ban még nem is gyúrnak annyira a Shader számításokra. -
#3523 Pedig tesztekben jobbak a 8600-asok mint a 2600-asok. -
#3522 nekem még mindig az a meggyözödésem, hogy 8800alatt ati... -
#3521 a 8600gt viszont gyorsabb nem?
1ébként egy Forsa 8600GT Premium 620/1600-t néztem ki - 28k Azt nemtom, hogy miféle márka ez a Forsa, mert még életemben nem hallottam:D -
#3520 Hehe na pci expressz téren talán mégis van remény és nemkell új alaplap:
"Eközben néhányan a PCI Express 2.0 megjelenése miatt aggódnak, főleg azért, mert egyes jelenleg kapható alaplapoknak minden korábbi ígéret ellenére meggyűlhet a baja az új szabványhoz érkező grafikus kártyákkal. Bár a PCI-SIG leszögezte, hogy a mostani alaplapok gond nélkül felismerik és a lassabb sebességen használják majd a PCI Express 2.0-hoz készült vezérlőket, néhány típusnál ez nem így van.
Az Asus például jelezte, hogy a Blitz alaplapoknál csak az elsődleges PCI Express csatoló kezeli problémamentesen majd az új kártyákat, mivel az a PCI Express 1.1-es verziójának megfelelően készült. A másodlagos illesztő azonban csak a szabvány 1.0/1.0a változatát ismeri, így nem tudja majd futtatni az új fejlesztéseket. A vásárlóknak ezért azt ajánlják, hogy amennyiben a jövőben új grafikus illesztőkre tesznek szert, azokat csak és kizárólag az elsődleges illesztőben használják, ne próbálják majd hasznosítani az SLI-funkciót. A többi alaplap esetében elméletileg nem lesz ilyen gond, de ezek továbbra is csak ígéretek. "