43
  • Strexx
    #43
    közben megtaláltam,hogy az explorer.exe -az ami húzza folyamatosan. De a suspendálás még nem megoldás sajnos.
  • Strexx
    #42
    Sziasztok! Olyan problémám van,hogy windows 7 home premium x64 alatt az új driverekkel a GPU LOAD szinte mindig 90%-felett van akkor is ha a gépen semmi nem fut. Nem tudok rá megoldást találni és féltem is. Windows 8 alatt nem volt ilyen gondom. Mi lehet a probléma?
  • palika2000
    #41
    Hali
    Nekem is hasonló problémám van egy asus hd4850-el.
  • Sir Ny
    #40
    "Várom a segítségeket! Előre is THX"
    akkor játsszál a COD4-gyel.
  • koandras
    #39
    Sziasztok! HELP
    Megvettem a zsír új Sapphire hd4850 512-es kártyámat és nem működik jól!
    A COD4 kivételével minden egyes játéknál pár perc után elsötétedik a kép a monitorom 109 v 111 "hercre" áll át. A videokártya megőrül innentől fogva nem lhet képet kicsikarni belőla, sokszor magától újra is indul!

    Várom a segítségeket! Előre is THX
  • belcure
    #38
    Üdv!
    Ilyen kártya müködik most a gépemben, és az lenne a kérdésem, hogy mennyire szabad ennek melegednie? én pl COD5-öt játszok jelenleg MP-ben, és kb 1 ora játszás utána 75 fokosra melegszik a kártya, a cooler "visit" 75%-os gyorsasággal! Engem az érdekelne hogy segitene ha beszerelnék egy oldalcoolert a házra? vagy teljesen felesleges foglalkozni vele? a játék nem kezd el szaggatni, nem lassul be,csak olyankor amikor más esetekben is, szoval nincs ilyen téren változás, csak féltem! Kösz elöre is!
  • Hepajkutya
    #37
    Nah mindegy lehet megoldódott a probléma behalt a vga-m mátrixos lett a képe mindenhol GPU hibás lett vagy volt is de csak most jelentkezett a hiba :-(. Most egy HD3850-es ketyeg benne a vista64-en problémamaentesen.
  • Hepajkutya
    #36
    Üdv!
    Hahh szintén problémás vok ezzel a karival fejlesztettem a gépem egy HD 4850-re 4 gb Geil rammal, core 2 duo E8400-assal vista 64bit de a vga driver feltelepítése után a restart után csak fekete képernyő kikapcsolódó monitorral a gép a háttérben dolgozik mintha rendesen bebootolt volna csak kép nélkül a gépben egy Seasonic 500w-os S12-es táp dolgozik lehet kevés neki a kráft? Az Xp alatt tökéletesen megy csak a 4gb memó hmm az 3gb :-( ezért a vista 64. Valakinek ötlete?
  • Lord Zax
    #35
    Sziasztok.

    Nemtudom jo helyre irok e vagy tudtok e segiteni, nemrég vettem egy uj gépet és egy hd 4850 es lett benne, q9300 proc 4g ram. minden jol müködik, vista 64-et raktam fel.Ha komolyabb játkékot akarok elinditani majd mindnél (valoszinü) a képfrissités miatt a kép egy részét levágja, és sajnos a játékokban nicns iylen beállitás, ezenkivül pár perc után ugy lefagy a kép semmit sem lehet csinálni csak reset gomb.
    Valakinek ötlete van miért lehet?
  • dez
    #34
    Valamit szerintem félreérthettél. A ATI-nak talán nem került semmibe (a rendes DX10 támogatás okán), de az Nvidiának nagyon is nehéz lenne átalakítani a G8x/9x-et, hogy megfeleljen a DX10.1-nek.
  • dez
    #33
    "Az nvidia kihozta a cuda-t, ami a sajat fejlesztesuk. Ez egy teljes erteku c-s cpu tombbe teszi az nvida gpu-kat. (ps3 cell kategoria, csak tobb rammal)"

    Attól még nem lesz Cell kategória, mert van ez a Cuda. Tele van szűk keresztmetszetekkel. (Egy ismerősöm [20 éve programozó, c és asm] próbálta használni, de a haját tépte tőle. Nem csak a dokumentált problémáktól, hanem a dokumentálatlanoktól.)

    "Az elso az, hogy 16-os vliw tomboket hasznal, azaz magonkent van 16 matematikai egyseg, de csak 1 elagazasi egyseg."

    Egészen véletlenül nem kevered az ATI R6xx/7xx-ével? Vagy Cuda alatt ennyire máshogy kezelné a HW-t, mint shaderkódban?

    "Az nvida gpu-k nem tudnak rendesen kerekiteni, tovabba a gyokvonasuk kritikan aluli modon pontatlan. Az ati meg lassabb, de precizebb alapon dolgozik."

    Döntsd már el, hogy a Cell a pontatlan (persze, hogy nem), vagy a G8x/G9x...
  • dez
    #32
    Természetesen úgy értettem, hogy az új cucchoz képest hozta be a lemaradást (ami a textúrázók és ROP-ok teljesítményét illeti).
  • turul16
    #31
    Ideje lenne elfelejteni, hogy directx x.y -es kartya kiabalosdit.
    Inkabb mondjatok shader model verziot. (Bar meg ez is santit, de nem annyira)

    DirectX 10.x SM 4.x (GL_EXT_gpu_shader4, GL_EXT_geometry_shader4, ..)
    DirectX 9.0c SM 3.0 (GL_NV_vertex_program3,GL_ATI_shader_texture_lod ..)

    10->10.1 valtas nem igenyeli egy fel tranzisztor arebb rakasat sem,
    mar, ha hiszel az MS DirectX csapat vezetojenek.
    Vagy inakbb hiszel az N+1 -edik kartyat is eladni akaro hardware gyartonak aki lusta drivert irni(/dokumentaciot kiadni), dontsd el.
  • [HUN]FaTaL
    #30
    Jah télleg:D Azt hittem a 4850 is. Bár egyes gyártók úgyis eltérnek a referenciától, úgyhogy szerintem lesz GDDR5 változat is.
  • novo
    #29
    A 4870 érkezik gddr5 el elméletileg ;)
  • [HUN]FaTaL
    #28
    "480 stream processzorral érkezik, az 512 MB GDDR3 memóriát pedig 256 bites interfész szolgálja ki."

    Nem GDDR5 véletlenül?:D
  • Sanyix
    #27
    Akkor sem tudod megmondani melyik a jobb, mert a dx9-es cuccokat IS nvidiára optimalizálják, ezt meg hogy multiplatform játék az dx9-es lehet, ezt el is felejtheted, mert nem igaz(pl assasin's creed), és mellesleg nem csak multiplatform játék van.
  • Abu85
    #26
    Azért nem teljesen így van. Az UT3 megjelent PC-re, PS3-ra és xBox360-ra is. Mindengyik verzió grafikájában vannak különbségek. Az Epic öt minőségopciót vezetet be a játékon belül. A PC-n tetszőlegesen lehet választani 1-5-ig. A PS3-as verzió fixen a 3-as szint köré van belőve, míg az xBox360-as a 4-es szint köré.
    Egy GF7900 a mai játékokban marha kevés, az x1650-et sem tudja már megverni a Dynamic Branching gyenge hatékonysága miatt.
  • kvp
    #25
    "Ezt honnan veszed? Attól hogy egy dolgot 1 kártyára optimalizálnak, és ezért gyorsabb, attól még a gpu nem lesz gyorsabb, csak jobban kihasznált. A 2 képességeit maximálisan kihasználó programmal lehetne megtudni melyik az erősebb gpu. Van egy olyan érzésem, hogy árkategórián belül az ati lenne gyorsabb..."

    A jatekokat manapsag dx9-re optimalizaljak, mivel mind a konzolok, mind a winxp ezt hasznalja. DX9 alatt nincs geometry shader es keves a branch-et hasznalo egyeb shader. Innentol egy buta de gyors kartya gond nelkul veri a fejlettebb, de ezert lassubb kartyat. Az a tudas es teljesitmeny, amit a mai szoftverek nem hasznalnak ki nem igazan szamit. A tobbseg nem akar fizetni olyasvalamiert (dx10.1) amit nem tud utanna kihasznalni. (pl. winxp alatt) Ugyanez elofordult mar az nvidian belul is, ahol az okosabb gf5-os szeria dx7-es jatekok alatt sokkal gyengebb lett a gf4ti-hez kepest. Ma egy olcso gf8-as vagy egy gf7900-as a legtobb multiplatform jatekhoz eleg. (minek jobbat venni, mint amilyen a ps3-ban van? csak dragabb de a legtobb jatek nem hasznalja ki)
  • Sanyix
    #24
    "Jelenleg a leggyorsabb gpu-k az nvidia-nal keszulnek, a legjobban szabvanytisztelok meg az ati-nal. Aki nem akar dx10.1-es jatekokkal jatszani persze kizarolag vista alatt, az valoszinuleg a gyorsabbat fogja valasztani." Ezt honnan veszed? Attól hogy egy dolgot 1 kártyára optimalizálnak, és ezért gyorsabb, attól még a gpu nem lesz gyorsabb, csak jobban kihasznált. A 2 képességeit maximálisan kihasználó programmal lehetne megtudni melyik az erősebb gpu. Van egy olyan érzésem, hogy árkategórián belül az ati lenne gyorsabb...
  • Sanyix
    #23
    Te miről beszélsz? 3870 már van olyan gyors, mint egy 8800gt (úgy hogy a játékok 90%-a nvdia által pénzelt, és arra optimalizált) és egy árban vannak, és a ritka(az nvidia miatt) dx10.1-es játékoknál meg ugye még sokkal gyorsabbak az ati-k, + ha tényleg dx10-es játékokat csinálnának, megint csak az ati lenne gyorsabb.
    Vagy vagy olyan észlény, hogy 2 különböző árú kártyát összehasonlítasz? :D
  • kvp
    #22
    "Éppenhogy az NV-k toldozgatások még a dx9-es erából...
    Az Ati meglépte azt a belső technológiai váltást, ami kell a fullos dx10-hez és tovább, az NV meg beépített a dx9 mellé dx10-es támogatást, de lényeges belső átalakuláson nem mentek át (értem ezalatt a kódnyelv feldolgozását, a stream procik megjelenése mindenképp gyökeres változás technológiailag)"

    Az nvidia kihozta a cuda-t, ami a sajat fejlesztesuk. Ez egy teljes erteku c-s cpu tombbe teszi az nvida gpu-kat. (ps3 cell kategoria, csak tobb rammal) Ket fontos kompromisszumot kotott az nvida. Az elso az, hogy 16-os vliw tomboket hasznal, azaz magonkent van 16 matematikai egyseg, de csak 1 elagazasi egyseg. Ettol az elagazasokat hasznalo shader-k teljesitmenye akar leeshet a maximalis 16-odara is (a loop teljesitmeny nem, de a conditional igen). A masik fontos lepes az volt, hogy kiszedtek szinte minden dedikalt egyseget, ami miatt a dx10.1-ben levo programozhato texturakezelest csak shader kodbol tudnak megoldani, ami ujabb 8-szoros sebessegeset eredmenyezne. A harmadik problema inkabb csak a microsoft bosszuja, abban a formaban, hogy a dx10.0-ban opcionalis precizitast kotelezove tette a 10.1-ben. Az nvida gpu-k nem tudnak rendesen kerekiteni, tovabba a gyokvonasuk kritikan aluli modon pontatlan. Az ati meg lassabb, de precizebb alapon dolgozik.

    Jelenleg a leggyorsabb gpu-k az nvidia-nal keszulnek, a legjobban szabvanytisztelok meg az ati-nal. Aki nem akar dx10.1-es jatekokkal jatszani persze kizarolag vista alatt, az valoszinuleg a gyorsabbat fogja valasztani. Arrol nem beszelve, hogy amig a jelenlegi konzolok ki nem kopnak, addig minden multiplatformos jatek dx9-re meg gf7900-ra lesz optimalizalva.
  • Magnificat
    #21
    Éppenhogy az NV-k toldozgatások még a dx9-es erából... a mai játékok (még a dx10-esek is) elsősorban dx9-re lettek írva, pár dx10-es effekttel, amivel többek, mint a 9. Az Ati meglépte azt a belső technológiai váltást, ami kell a fullos dx10-hez és tovább, az NV meg beépített a dx9 mellé dx10-es támogatást, de lényeges belső átalakuláson nem mentek át (értem ezalatt a kódnyelv feldolgozását, a stream procik megjelenése mindenképp gyökeres változás technológiailag). Meg ugye ismerjük az NV-Assasins Creed históriáját is a dx10.1-ről. Szóval ezt a lépést majd az NV-nek is meg kell valamikor lépnie, meg persze a motoroknak is (ha egyből nem ugranak dx11-re :) ), az ATI kockáztatott azzal, hogy ő meglépte hamarabb, most annak issza a levét (azt remélték gyorsan elterjed a dx10, és a motorok is olyanok lesznek, hogy teljes dx10-es utasításkészletet fognak használni, de a mai motorok hibrid dx9-10-esek, ezért nem állnak annyira jól az ATI-k).
    Mindazonáltal ugye mindig az ár/teljesítmény arányt kell figyelembe venni, hiába gyárt az egyik oldal ultrabrutál karikat, nem abból vannak az eladásaik java része, hanem a megfizethető, gyors karikból. Ilyen szempontból pedig szerintem egyáltalán nem annyira rossz az ATI, vannak korrekt kártyáik igen korrekt árakon) Amikor én az enyémet vettem, azt érte meg, ma inkább már egy 9600GT-t vagy 3870-et vennék, de ez mindig így megy... ha várnék 1-2 hónapot, lehet a 4650-4850-es lenne a király vétel :)
  • DrRadon
    #20
    Akkor megyek kukázni egy 4850-est, az jó lesz nekem majd akár egy évig is.
  • zoli47
    #19
    Lehet hogy a lemaradását behozta, de az Nvidia is előrébb lépett annyival, szal a felállás ugyanaz. Az x2 talán már jó lehet az ATI-ból is, a többi kuka.
  • zoli47
    #18
    Meg az ATI-é (Half Life, Call of Juarez # Co). Csak most nincs annyi pénze mint az Nvidiának.
  • dez
    #17
    Nem az számít, hogy mit mondanak, hanem hogy mit csinálnak! (Ez minden téren igaz...) Shaderteljesítményben ott volt az ATI is, csak a textúrázó és ROP egységből volt kevés, pontosabban kevesebb, mint Nvidián, ahol több is volt a kelleténél, így az Nvidiára optimalizált, illetve az említett dolgokat erőltetetten is használó kódok lassabbak voltak ATI-n. Namost, mindkét kártya nagyjából ráduplázott a shaderteljesítményre, azonban az ATI az említett egységekben is behozta a lemaradást...
  • dez
    #16
    A Hybrid SLI és a Hybrid Crossfire nem ezt csinálja.
  • aaaaa
    #15
    Még a 10 watt is rengeteg, nem a 8800 GT-k 35-40 wattja, ha épp semmit sem csinál, ezt kb. 1 wattból meg lehetne oldani. Ha valaki internetezik rajta, sokszor percekig ugyanazt az oldalt nézegeti. 30-40 Wattból komplett notebookok elműködnek nem is akárhogyan. A másik fele meg az a teljesítmény, amit a klímára költünk nyáron, hogy azért ne süljön meg a felhasználó a nagy melegben, amit a gép termel... :)
  • Cobra.
    #14
    A Radeon 3000-es széria 2D-ben már erősen visszaveszi az órajeleket:
    http://www.xbitlabs.com/images/video/msi-hd3650/rhd3650_power.gif
    http://www.xbitlabs.com/images/video/gigabyte-radeonhd3870-3850/gbt3000_power.gif
  • neoG
    #13
    szerintem Ő is erre gondolt ("ami ATI által pénzelt lenne, az meg nem létezik")
  • Bircsike
    #12
    Agyonpénzelt játékok? Az az nVidia rezortja....
  • waterman
    #11
    hát ja, legalább olyan dinamikus szabályzás kéne, mint amit már a cpu-k tudnak. 2D-ben lekapcsolhatná egy az egyben a nem kellő memóriamodulokat, meg a sok-tucat stream processzor nagy részét, 3D-ben hasonlóan spórolhatna, hardverből/magától lejjebb vehetné minden órajelét. pl nekem egy játék alatt sem kell több 35 fps-nél, akkor beállíthassam, hogy ne is akarjon jobban hasítani. meg úgy alapból igazán csinálhatnák az összes újabban megjelenő chipet minél energia hatékonyabbra. ha valaki megveszi 130 ezerért az új kártyát, akkor ha 40 wattal kevesebbet zabál, akkor megveszi majd 140ezerért is. legalábbis én azok közé tartozok, akiket minden zaj idegesít, szóval ha 2D-ben valóban elbírná egy passzív borda a videókártyát az gyönyörű lenne. viszont eddig minden passzív bordás csoda amit eddig láttam, egy órányi internetezés után bátran használható lett volna szalonnasütésre.
  • zoli47
    #10
    Vagy csak simán lekapcsolgatná a nem használt részeket, mint a mobil vga-k.
  • zoli47
    #9
    Ezt mondták az előző generációra is, és mi van? Már ki tudja hány generáció óta (9800pro, x800) nem tud felmutatni az ATI megfelelő ellenfelet. A 3870-nél is jöttek a "majd DX10-ben jobb lesz és hűha" hsz-ek, és mi lett belőle? Semmi. Ami DX10 játék van az nem jó, mert "nem olyan" DX10, ami ATI által pénzelt lenne, az meg nem létezik, közben teljesítmény meg sehol. Mint a cikkből is kiderül az új ATI kártya is csak egy toldozgatás-foldozgatás a mostanihoz képest, erre elég az nvidiának is csak éppenhogy tuningolni, és ugyanott tartunk mint most. Ennél azért nem kicsit többet kéne felmutatni.
  • FlyingV
    #8
    sokkal ésszerűbb lenne, ha az esetleges alaplapi integrált grafikus vezérlőt használná, akár intelt is, akár sajátot is chipsettől függően
  • tomcsa4
    #7
    Hybrid SLI nincs, nem működik megfelelően tudomásom szerint. Hybrid Crossfire a jó!
  • Locutus51
    #6
    Csináltak, Hybrid SLI-nek hívják.
  • aaaaa
    #5
    Remek, hogy egy videokártya 200-300 !!! wattot fogyaszt. Főleg az a szép, ha épp nem csinál semmi extrát, némelyik akkor is bekajál 30-50 wattot... Rég meg lehetett volna oldani, hogy ha 2D-ben használják, vagy épp állókép figyel rajta legyen benne egy egyszerűbb pár watt fogyasztású kis GPU, ami ilyenkor helyettesíti a "hőerőművet". Elvileg írták, hogy csinálnak valami hasonlót...
  • Bircsike
    #4
    Ezek teljesen alaptalanok, az ATI oda fog pörkölni a GTX2xx-nek. Még semmi teszt sincs, és a fogyasztás és az árak mindenképp az ATI oldalára állnak. Az nVidia ezt most csúnyány bebukja.