90029
  • BooMiller
    #86023
    Menyit játszol naponta? Én most komolyan kérdezem, mert fel nem foghatom ezt a fogyasztási mizériát.. valaki vesz egy kártyát 100e forintért aztán a hasra ütök +80w fogyasztáson aggodik :DDD Mennyit kell játszani hogy ez jelentős pénzbe kerüljön?:) Komoly a kérdés lusta vagyok kiszámolni..
    Tehát mennyit esett vissza a villanyszámlád mióta váltottál?
  • arty
    #86022
    assetto corsa alatt igencsak hangos volt a kártya, elképzeltem előre a nyarat, +10-15 fokos szobával ... és megszületett az elhatározás :))
    ezekután ilyen-olyan okokból, de 5 ezer forintomba került a váltás, nem volt mint agyalni a dolgon :)

    980at sose vettem volna, az a tulárazott szemét kategoria... :)
    titkon azt reméltem, h a 390 széria majd jól sikerül, s visszaváltok tavasszal, de elnézve a kiszivárgott fogy. adatokat, sok remény arra sincs :(
  • Rita79
    #86021
    Igazából nem is agyaltam húzáson, mert az OC gyárilag 1040/1300 MHz, ami elég kell legyen. Viszont téged őszintén nem értelek a váltás miatt, hisz lényegi teljesítmény növekedést nem kapsz (már ha kapsz egyáltalán valamit). Én a helyedben maradtam volna még 1 évig a 290-nél, majd utána váltottam volna egy pl. 980GTX Ti-re. De ez az én véleményem.
  • broman191
    #86020
    Én a non-X 290-ről beszéltem, ahogy előttem alyr2 és arty is! ;-) A PH! 9 játékkal és 2 felbontással tesztelt, a TPU 20 játékkal 4 felbontással...mindenesetre nagyjából ugyanaz az összkép a 290 és GTX 970 témában. A 3Dmark pedig szvsz nem mérvadó semmiben, egyetlen játék sem készül azzal a grafikus motorral, az egyes karik közötti nyers erőről ad valamiféle támpontot, de a 3Dmark alatti futásteljesítménynek köze sincs ahhoz, amit az ember valós játékokban várhat az adott termékektől...
  • arty
    #86019
    nekem 290 volt a 970 előtt és azért a 290 lassabb a játékok nagyobb részében...
    prohardver tesztben "szerencsésebben" választottak játékokat alájuk, ennyi.

    ráadásul a 290en nehéz bármennyit huzni, mert throttlingol a magas fogyasztás-hőtermelés miatt (visszaveszi az órajelét, hába bírja 5 percig a magasabb frekit is), ha pedig felhuzod a ventijét, mint a barom, nos ... az meg hangban elviselhetetlen :)

    nagyon akartam szeretni a 290et, volt ref modellem is és egy msi gaming is, ár érték arányban jó kártya - de a plusz pénzért (eléggé elvárhatóan :D ) valóban kapsz is pluszt: valódi tuningképességet (+10-20%) és halkabb működést (ok, a fogyasztásól tekintsünk el, de a ventik akkor is lassabban kell pörögjenek rajta). ami szopóka 970en, az a rammizéria...

    a piacnak nagyon-nagyon kéne, h magára találjon az amd, mert különben a következő "960as" vidia (gtx1060? :D) száz felett fog indulni ...
  • Rita79
    #86018
    Hát nem tudom, én most vettem és sokat nézegettem vásárlás előtt. Tervben volt még a GTX980 is, csak úgy döntöttem, hogy még kiforratlan kicsit. Ebben a tesztben pl. gyakorlatilag veri a 970-et. Ráadásul mindkét "játékon kívüli" 3D mark tesztben is veri. Számomra úgy tűnik, hogy az a 11% és 2% pont a Radeon javára jelentkezik. De lehet más szemüvegen keresztül nézzük a világot.
    Ja és a fogyasztást pont lesz@rom. 1-2 Watt ide-oda mit sem számít. A lényeg a nyers erő.
    Utoljára szerkesztette: Rita79, 2015.02.14. 10:17:23
  • broman191
    #86017
    Általában pont hasonló szinten van, különböző címekben adogatnak pár FPS-t ide-oda egymásnak magas felbontás és grafikus beállítások mellett, valamint maroknyi címben vezet látványosabban egyik a másik ellen...1080p-ben az nVidia gyorsabb - +11% - 4K-ban szintén, de már csak +2%...valós felhasználás során szvsz ez a nagy semmi, amit ha nem méreget az ember nem fogja észlelni, főleg vsync vagy feles frissítési gyakoriságú vsync mellett...a számokból kihozható hogy valamelyest visszalépés a 290, a valós élményt tekintve inkább csak nem előrelépés...zajszintben és fogyasztásban pedig masszív visszalépés, így a sztori vége összességében lehet visszalépés, kinek mi mennyire számít... Aztán a GTX 970 még tuningolható és akkor sem fog súlyosan többet fogyasztani, valamint hangoskodni, de még gyorsabb lesz, tehát...nem semmiért olcsóbb a 290 20-30e Ft-tal... :)

    Ajánlott olvasmány: TPU teszt 20 játékkal
    Utoljára szerkesztette: broman191, 2015.02.14. 08:23:49
  • Rita79
    #86016
    Több tesztet meglestem, mindenütt veri a 970-et. Vagy akkor valami elkerülte volna a figyelmemet?
  • arty
    #86015
    290-ből talán a csucs is hangos... (nekem msi gaming 290 volt és nem volt kimondottan halk)

    ár-teljesítményben jó a 290, de miért akarna valaki lasabb kártyára visszalépni 970-ről?
    nincs ez így jól, nagyon kéne erős konkurrencia a vidiának ...
  • alyr2
    #86014
    szerintem a 290 siman lehet alternativa 970 ellen mellett...olcsobb ugy 20-30 ezerrel es hozza ugyan azt naggyabol ,fhd felett meg vegkepp
  • arty
    #86013
    ha lenne amd alternativa, jogos lenne a kérdés... sajna a vörösek lekésték a holiday seasont és most még ebből a nyűgből se tudnak profitálni :(
  • Solten
    #86012
    Mennyivel megy ez lejjebb ha visszafizetik a lovet az atqrt gtx 970-et vasarloknak?
  • arty
    #86011
    egen, jól kijött nekik az év (vége (is))
  • pHNxX89
    #86010
    Ott a pont.
    Utoljára szerkesztette: pHNxX89, 2015.02.12. 12:11:22
  • Borg
    #86005
    Rekordbevétel az Nvidiánál

    Ennyit arról, hogy a piac döglődik-e, vagy csak az AMD bénázik...
  • broman191
    #86004
    Szvsz érthető hogy magasról tesznek egy bizonyos szűk rétegre, minek törnék magukat vele... Bár előbb-utóbb biztosan érkezik támogatás, de jogos hogy először a célközönség 99%-ának minél jobb élményére koncentráltak...eleve mikor is volt értelme a több GPU-s 'atomreaktor' PC-knek? Mi értelme van a pénzt felelsegesen össze-vissza szórva túlfogyasztva folyton a korunk előtt járni, a szánt szándékkal gyorsan elavuló termékek világában? Ha viszont lenne több GPU-ra kitalált grafikus részletesség a nagyobb felbontáson kívül is, akkor meg vöröslene a feje a sok átlag PC-s értetlen haternek hogy kötsög' tekkdemó'...
    Utoljára szerkesztette: broman191, 2015.02.11. 23:21:40
  • pHNxX89
    #86003
    Vélemény: elvesztik létjogosultságukat a több GPU-s PC-k?


    Van köztetek olyan aki 4k-n játszik 2VGA -val?
    Utoljára szerkesztette: pHNxX89, 2015.02.11. 22:51:12
  • BooMiller
    #86002
    flameljetek inkább:) most kinek kell 380x:)


  • Blum
    #86001
  • Solt
    #86000
    Az lesz... lassan kezd Borg-ra hasonlítani... :)
  • Borg
    #85999
    Zsák a foltját :D
  • Solten
    #85998
    Szvsz ignorald, grebber egy gyenge minosegu troll.
  • grebber
    #85997
    New details surface on AMD’s upcoming R9 370X, 380X, 390X, & 390X2 graphics cards
  • MerlinW
    #85996
    Magyarázhatsz neki, ha el is olvassa, holnapra elfelejti...
  • broman191
    #85995
    Haha, én azért örülök annak a 'kevéske' és "nagyon könnyen elkölthető" 100.000 rajzolási parancsnak a 2.000 után...ha azt nézzük, hogy a régi keretből is milyen látványvilágot voltak képesek - kénytelenek - megvalósítani, akkor mi lesz amikor az újabb távlatokból passzírozzák ki a lehető legoptimálisabb eredményt? 18'-ra pedig 1 millió rajzolási parancs per frame...elég merész kijelentés, gyorsan növekszik a grafikus procik teljesítménye, de térjünk vissza rá 18'-ban, mi lesz a valóság, főleg az akkorra elterjedt videokarikkal...mindenesetre az animációs filmes technika átemelése érdekesnek iránynak tűnik, hajrá kutatók, fejlesztők... :)
  • Solt
    #85994
    Több topikban is látlak PH-n... ott is kifejted ezeket a nézeteidet, mindig megkapod rá a válaszokat, aztán mégis kezded előröl. A kiakadásaid és a felesleges túlzásaid sehova nem vezetnek, ez az állandó indokolatlan pesszimizmus meg már sok(k).

    A DX11 limitál, pont. Van olyan stúdió, akinek a munkáján ez kevésbé érződik, és van olyan, akién nagyon, de ettől még limitál. Hogy lesznek-e szarul optimalizált játékok DX12-re? 1000%, de ettől még lesznek majd olyanok is, amik kihasználják majd a plusz lehetőségeket...

    Hülyének néznek minket? Ez egy hobbi, és mint minden hobbi esetében, itt is zsebbe kell nyúlni. Annál jobban, minél jobban élvezni akarod. Azt felejted el, hogy ez egy iparág, és mint ilyen, nem az a fő érdek, hogy te minél kevesebb költséggel minél jobban járj, hanem, hogy minél többet költs, és minél előbb válts. Na most ezt vagy tudomásul veszed, vagy nem, de ettől ez még így van.

    Mindenkinek saját magának kell eldöntenie, hogy a hobbija mennyit ér meg neki... ha soknak, aránytalannak érzed a kiadásokat, akkor hagyj fel vele.


    Utoljára szerkesztette: Solt, 2015.02.10. 21:23:16
  • grebber
    #85993
    "Dragon Age-el sincs gond" Ez többségben azok mondják akik mantle alatt tolják ,mert ott nincs is gond dx11-el köztudottan gondok vannak ott is.
  • pHNxX89
    #85992
    Nem mindegyik játéknál vannak gondok.... Ahol az NVIDIA segít ott egyértelműen gáz van, ahol az AMD segít ott jók szoktak lenni a játékok, a Dragon Age-el sincs gond.
  • pHNxX89
    #85991
    Négy előadás is lesz a DirectX 12-ről a GDC-n "A prezentáció során az AMD részletezi, hogy mire kell figyelnie a fejlesztőknek, hogy egy GPU-limites program tovább gyorsuljon."
    AMD mindent megtesz értünk
  • grebber
    #85990
    Nem érdekelnek ,már leírtam párszor többek között ezt is!

    "Néha nem tudom mi a fene üt beléd.." Ezt nem tudom mire írod. Mert x modon látom azt ami ezer éve jelen van?
    Én nem ti vagyok hogy beletörődök abba, hogy fél millás gépemen ej ez a **ar csak 30 fps-el el fut meg mindent elnéztek hogy mert a dx11 limitál de majd a dx12. Hülyének néznek titeket és ti helyeslitek.
    Utoljára szerkesztette: grebber, 2015.02.10. 21:03:18
  • pHNxX89
    #85989
    Az új API-knak is kevés lehet a teljesítményük
  • Solt
    #85988
    Néha nem tudom mi a fene üt beléd... csajokkal, hogy állsz mostanában? :)
  • MerlinW
    #85987
    Te vagy a szakember, te tudod.
  • grebber
    #85986
    Halomba gyűjtöm ezeket a kommentek és majd jövök ezeket idézve amikor ugyanúgy optimalizálatlan szökevények ömlenek majd.
    SEMMI ismétlem semmi nem fog változni a DX12 eljövetelével. Ja de a VGA-k dobozán a plecsni hogy dx12 supported és semmi több.

    #85987: Én egy senki vagyok , cseppet sem értek a pc-hez csak használom ,de azért dx7 óta csak követem a játékipart és hát hogy mondjam SEMMI nem változott.
    DX12 miatt nem fogja a kiadókat hirtelen jobban érdekelni a pc mert ugyanúgy a konzol lesz az isten platform a szemükben
    Utoljára szerkesztette: grebber, 2015.02.10. 20:39:35
  • MerlinW
    #85985
    DX11-nek technikai korlátai vannak, azért nem használják sokan / gyenge a teljesítmény.
  • broman191
    #85984
    Persze hogy meg, a kérdés hogy minél mennyire van értelme és ki fog vele folgalkozni...régebben kiadott játékoknál nem igen fognak görcsölni vele, frissebbeknél esetleg, újaknál pedig egy idő után nem lesz kérdés a támogatás megléte... Utólag frissítgetni nem minden esetben lehet feltétlen érdemes, főleg ha alapvetően a DX11 korlátos képességeinek tudatában íródott a bizonyos játék...CPU oldalról igaz akkor is előnyös lehet egy utólag buherált támogatás, de közel sem lenne akkora a különbség, mint egy ilyen Star Swarm-nál, amely eleve a low level API-k előnyeire épít és idejétmúlt API mellett hiába lenne akár 6 magos i7, annak sincs elég izomszövete lapátolni egy akármilyen bika GPU felé, hogy a végeredmény élhető futásteljesítmény legyen... Erről jut eszembe, hogy a Dying Light-ra kíváncsi leszek, lesz-e majdani DX12 patch és ha lesz, azzal megoldódik-e a látótávolság feltekerése okozta kegyetlen gépigény...vagy legalább érezhetően mérséklődik. A Witcher 3, GTA V és egyéb nagy open world game tudna profitálni belőle igazán, bár rengeteg kirajzolási paranccsal valószínűleg egy klasszikus Doom-féle corridor shooter élvezhető futásteljesítmény mellett elérhető grafikus részletessége is esélyesen újraértelmezhető lenne...Doom 4, Half Life 3, új FallOut és a többiek, lassan érkezhettek, addig is tisztítom a padlót az államnak! ;-)
    Utoljára szerkesztette: broman191, 2015.02.10. 19:02:26
  • Solt
    #85983
    Annyira béta még minden ( Win10, DX12 ), hogy sokat én nem adnék erre. :)
  • pHNxX89
    #85982
    Grebber! Ne legyél pesszimista! Bizakodj! :D
  • grebber
    #85981
    Ha arra sem veszik a fáradtságot hogy a jelenlegi dx-re normálisan megírják a játékaikat akkor egyik cég sem fog ilyen patchel görcsölni azt garantálom.
  • pHNxX89
    #85980
    Jó ez a teszt. Egy patchel megoldható lenne , hogy DX12-n legyenek optimizálva a régi játékok? A Crysis 2 esetében volt először h DX 9 en lett kiadva és utánna kiadtak egy DX11 patchet?