90029
  • Dobronski
    #39802
    2:28-tól a legviccesebb, és a legszánalmasabb.
  • kifli
    #39801
    hehe, mi a link? enegem nagyonleoltott anno az ati 9800-amal, valaki tudja a linket?megnézném mit mond erre az ősrégi notira :D
  • Dobronski
    #39800
    Nézd végig.
  • Solten
    #39799
  • Dobronski
    #39798
    NEVETSÉGES!!!!!!!!!!!!! ENVIDIA DZSÍPÍJU NOT BED! ESZ EL ÁJ!
  • MR ME
    #39797
    igazuk van, jó politika, ha nem tudunk dx11et csinállni akkor az szar -.-
  • Blum
    #39796
    Ajjj,tisztán látszik,hogy menekülnek a DX11 elől. Szarabbnál-szarabb indokok,hazugságok hangzanak el 1-1 nagyfejtől....ugyanmár,ez annyira szánalmas.
  • Solten
    #39795
    NVIDIA: nem a DX11, hanem a GPU ereje a lényeg

  • KranaZoli #39794
    Én még ennyit sem pöcsöltem volna vele, ha vásárolok egy karit és ilyeneket művel. Vissza a boltba (ha boltban vetted) és csere.

    Ill. ha van lehetőséged más gépben kipróbálni, Én még ennyit tennék asszem.
  • Gibor
    #39793
    Ez biztos hogy hardware hiba, nekem cpu limites géppel megy a wow full grafikán 60-70fps között cod1 cpu limittel megy 250 333... szerintem garanciára küld be és mond hogy hibás darab és nekik is mond el ezt a szép regényt :)
  • Blum
    #39792
    99%-ig biztosan mondom azt,hogy a karid gyári hibás.
  • Wanax
    #39791
    Megvolt, szűz install winxp és vista is volt, csak azt raktam fel ami kellett (dx, vidkari driver, alaplap driver)
  • Abu85
    #39790
    Próbálj installálni egy új wint ... úgy, hogy formásod a rendszer partícióját, és a kari driverén kívül semmilyen szir-szar Ati Tray Toolst meg hasonlót nem raksz fel. Persze nyilván directX mehet, de az ilyen buherálóprogramokat hagyd ki.
  • Blum
    #39789
    CPU limitet kizárhatjuk. Én így a leírtak alapján 1 hibás darabra gondolok egyből,de kicsit várj,jönnek majd az igazán hozzáértők,talán még valamit kitudnak neked találni. Szvsz "Te mindent megpróbáltál".
  • IMYke2.0.0.0
    #39788
    Ötletem nincs - a hardver a hibás (szerintem).

  • Wanax
    #39787
    Sziasztok!

    A leirásban szereplő konfigban minap cseréltem az x1950-öt egy MSI 4890-re, abból is az OC-s fajtára (pontos neve: R4890-T2D1G-OC), és sajna szomorú dolgokat tapasztaltam: A játékok furán futnak, amíg nincs semmi mozgás a képen addig rendben van, de mihelyt valami változás van (pl CoD-ba megjenlik egy ellenség), az fps leesik és egy fél pillanatra megmerevedik a kép, majd megy tovább. Stalker Clear Sky-nál ezt már a főmenüben is csinálta, hogy megáll a kép egy pillanatra. Emelett alapból nagyon alacsony fps-eket produkál (pl COD1 max 40-50 fps, WoW 30-40 fps). További fura dolog hogy játékok és 3dmark alatt a ventije halk, ugyanolyan mint alapon (furmark alatt viszont felbőgött és ment rendesen), everestel néztem a terhelést játékok alatt egyfolytába váltogatta a gpu frekvenciáját 240-500-880 között, mikor milyen kedve volt, kihasználtság az everest szerint olyan 0-70% között ingadozott. Furmark alatt 98-99%. WoW alatt a következőt csinálta: bejelentkező és karakter választó képen pörgött a kártya, venti ment hangosan, ati tray tool szerint 300+ fpst csinált, betöltődött a játék, ott venti elhallgatott, 1680-as felbontásban majdnem full grafikával (árnyékokat vettem csak le) max. 40 fps ha a falat néztem :) ha mászkáltak körülöttem akkor leesett 20 körülire. CoD1 alatt (full graf, 1280as felbontás), falat nézve max 50 fps, harc közbe leesett 10 alá, a kép meg-megállt. (ennél még a régi radeon 9800se-m is jobbat csinált...)
    3dmark 2006 kifagy rajta futás közben egy "IDirect3D :: Clear failed : Invalid Call (D3DERR_INVALIDCALL)" üzenettel. 3dmark 2005 pedig 5600 pontot csinált (x1950-el olyan 10000 körül van)
    Furmark 1.7.0-ben min 100fps max 150et produkált, átlag olyan 110 körül van.
    Amit eddig próbáltam:
    - Win xp reinstall, majd utána vista ultimate install, mind2n ugyanazokat csinálta.
    - Próbáltam a gyárilag adott 9.3as calatystal és a legújabb 9.9essel is.
    - Próbáltam kivenni mellőle a tuner kártyát, a sound blastert, illetve letiltottam az alaplapi hangot (hátha akad valamelyikkel)
    - Átraktam az alaplap másik PCI-E slotjába, de az se segített.
    - Windowsba a write combining ki kapcsolást, illetve hardware gyorsítás levételt
    - Ati Tray Toolsba felrakni manuálisan az órajelet 880-ra, hogy játék közbe fixen ezen fusson, nem segített.
    - CCCben catalyst AI-t kikapcs.
    - Hirtelen most más nem jut eszembe, már 2 napja szarozok ezzel :)

    A proci nemhinném hogy kevés lenne neki, mert WoW alatt max 70%-ig ment fel a cpu használat (a két mag együtt)
    Jelenleg kifogytam az ötletekből, hogy mi lehet a gond. Persze lehet hogy csak egyszerűen kuka a kártya? Minden tippet örömmel fogadok :)
  • KranaZoli #39786
    No! Lesz mit olvasgatni úgy látom. Jól kiveséztétek a jövevény 58xx; 5870 szériát és a 4890-est.
  • Blum
    #39785
    Igen,párszor meg is lepődtem,hogy mi-hogy megy...(mármint milyen jól ahhoz képest,hogy milyen olcsó....)
  • kifli
    #39784
    jó kis kari az, főleg az árához képest, egyedűll a szűrőket nemszereti...
  • Blum
    #39783
    Ez nekem csak jóhír! :D (tehát nem vettem szart) :D
  • Solten
    #39782
    Na ez érdekes. Hogy ver tönkre egy 3850 egy 7950 GX2-t: SLI teszt
  • gurubefree
    #39781
    Ahogy olvasgattam 2xHD4890 van egy szinten (kb ) egy GTX295-el. Na most ha ebbol indulunk ki es hozza tesszuk az alltalad berakott tablazatot ....
    HD5870 a nyero . Bar ez jo azoknak akik nemsokara olcso HD4890-et akarnak venni ......
  • gurubefree
    #39780
    Lenyugozol :-)

    Ez a kartya lehu...oz mindent ... es bizzunk benne hogy a Driver is tesz hozza meg egy kicsit .
  • gurubefree
    #39779
    Ime ..... A szamitasi teljesitmeny . 1920X1200 ; 2560X1600 itt lehet majd erezni miert is kell akkor szamitasi teljesitmenyt belepreselni 1 GPU-ba.
    Egy single GPU hozza az X2-es teljesitmenyet .... mit produkal CF-ben . Az X2 teljesitmenyet el sem tudom kepzelni :-)
  • Solten
    #39778
    [IMG][/IMG]
  • gurubefree
    #39777



    A kerdes az hogy a dupla annyi stream processor eleg ahoz hogy hozza a HD5870 a 2 HD4890 teljesitmenyet .... En azt mondom igen , mivel vannak peldak arra hogy alacsonyabb GPU orajelu kartyak tobb stream processorral azonos memoria interface-el magasabb teljesitmennyel birnak. Itt azonos GPU orajel es gyorsabb memoria + dupla annyi stream processor.
    A 40nm GPU-rol nem is beszelve .
  • Solten
    #39776
  • Solten
    #39775
  • Solten
    #39774
    "csak azt gondolom hogy hiába raktak össze ekkora számítási teljesítményt egy gpu-ba mert a memória sávszélesség vissza fogja fogni az összteljesítményt."

    Bőven elég szvsz. Az átdolgozott memóriavezérlőt meg lásd lejjebb. Az mindenesetre roppant biztató hogy a kisebb csíkszélességnek hála dupla annyi TMU-t, SP-t és ROP-ot pakolásztak az 5870-be versus 4870/90... Ha a táblázatot nézzük, ez egy 4870 X2 teljesítménye, lazán... (sőt, egy 4890 CF-é)
  • Solten
    #39773
    A HD 4***-aknál már teljesen új memóriavezérlő került bevezetésre, a 3-as széria ún. "ring bus" vezérlőt használt, ezt kukázták. Az 5-ösöknél még finomítják a dolgot:

  • Solten
    #39772






  • MerlinW
    #39771
    20-30. Azonban még csak 2 éve van DX10 és ami hátráltatta sokáig, hogy nem kompatibilis visszafele.
  • duracellmumus
    #39770
    OK.
  • gurubefree
    #39769
    Ezekbol eleg lesz single GPU is .... foleg a HD5870 esetben.

    "memória sávszélesség vissza fogja fogni"

    Eppen ezert gyorsabb 30% ...... hogy ne fogja vissza.
  • duracellmumus
    #39768
    2x320 az csak 640 és nem 800, voltak ott optimalizációk is nem kevés.

    csak azt gondolom hogy hiába raktak össze ekkora számítási teljesítményt egy gpu-ba mert a memória sávszélesség vissza fogja fogni az összteljesítményt.

    de majd kiderül hogy mit tud. biztos ami biztos x2-eset veszem majd ha már hozzá lehet jutni, nem mondom hogy a pénz nem számít de nem akarok többet 60Fps alatti frame rate-t.
  • gurubefree
    #39767
    Csak 1 pelda jutott az eszembe :

    HD3850X2 2x256bit GDDR3 2x320 Stream Processor
    HD4850 256bit GDDR3 800 Stream Processor

    Szerinted melyik a gyorsabb ??? HD4850 ... hiaba magasabb a GPU orajele a HD3850 eseten. Ebbol is latszik mennyit is szamit a GPU orajele .

    Lehet ott szelesebb memoria interface .... Miert nem hasznal az ATI 512bit-es memoria interfacet ?? Mert felesleges .... gyorsabb memoriaval kompenzaljak.

    HD4770 128bit-es ..... 128bit + GDDR5 = 256bit + GDDR3

    A te esetedben az a gond hogy figyelmen kivil hagytad , hogy a HD5XXX eseten a ( HD5870 ) a memoria alapbol 30% gyorsabb .
  • kifli
    #39766
    :D oks már látom, csak előtte az órajelek voltak aztán már nem is néztem uh nemszoltam
  • duracellmumus
    #39765
    ember! a stream processors sórban a:1440 és 1600 az nem az stream processor-ok órajele hanem a stream processzorok számát jelöli
  • kifli
    #39764
    jo tudom hogy nem pontosan a gpu orajelén mentek, de elég közel ahoz, és van ahol egyforma volt, itt pedig duplája a gpu órajelének :)
    ami nem volt eddig jellemző hogy ilyen magas órajelen ment
  • duracellmumus
    #39763
    nem az "érdekes" nem helytálló hanem az hogy a "shader procik már nem gpu órajelén járnak"