90029
  • Maala
    #87269
    3 teszt van, egyikben 20W (Ti OC-vel összehasonlítva 10W), másikban 35W, harmadikban 44W a különbség. Részemről annak hiszek, amelyik az egyetlen kicserélt komponenssel együtt megnézte az _egész_ rendszer fogyasztását, és azt közölte, nem pedig azokat, amelyik még számolgatott mindenfélét, meglehetősen feleslegesen növelve a lehetséges hibalehetőségek számát.

    Mellesleg 12:37-kor, amikor én írtam a hsz-t, még nem volt egy teszt sem, de hát egy hozzád hasonló troll ilyen apróságokra nem tud figyelni. Na viszlát, jó cerkahegyezést az Nvidiákra, hisz te képtelen vagy felfogni, hogy mivel járna egy valóban egyszereplős piac, ahol még a kartellezés sem lenne jelen. (Ahogy most jelen van.)

    ---

    Jó kis kártya lett a Fury, bár kicsit rámentek a nagyobb felbontásokra, úgy tűnik. VR-ben érdekes lesz a teljesítménye jövő év elején, de FHD alá nem vennék ilyet, talán 1440p-től érdemes... Lenne, ha nem lenne ilyen drága. Érdekes, hogy az azonos ROP számmal rendelkező GM204-es kártyákat maga mögé utasítja simán teljesítményben (persze fogyasztásban megelőzi őket). Valszeg az lesz a "szűk" keresztmetszete ennek is, emiatt nem kelhet versenyre a GM200-as GPU-kkal. Emellé viszont mégis 980Ti áron van, ami így kb. a vicc kategóriába sorolja, legalábbis a VR-ek megjelenéséig. Ott majd kiderül újra, hogy birokra kelhet-e velük, hisz azon a területen már mást is tudnia kell egy kártyának.

    Ezek után a sima Fury Pro 100 USD-vel olcsóbban érdekes lehet még, mint 970-980-nak alternatíva a felsőkategória közepébe. Csak a 390(X)-et lehetne elfelejteni, no meg persze a magyar áraknak is jól kellene alakulniuk.

    Mindenesetre köszönöm az AMD-nek, hogy megmutatta, milyen durva is lesz valójában a Pascal 2016-ban. Durva lesz a HBM 2.0-val, 1/3-1/2 akkora PCBkkel, a 14nm miatt még kisebb fogyasztással, esetleg léghűtéssel. Egyszerűen WOW. És persze a Fury 14nm-es változatát is várom.
  • Borg
    #87268
    Már megerősítették, hogy a stúdió egy percet sem foglalkozott a PC-s porttal, hanem egy külső fejlesztőre (Iron Galaxy) bízták azt teljes egészében. Amennyire röhejes a dolog, pont annyira érthető, hogy ez lett belőle. Ki sem szabadott volna adni így PC-re.
  • Inquisitor
    #87267
    Meh. Van kint video GTX970, FHD, minimum(!) beállítások. Úgy szaggat, hogy öröm nézni, van amikor szemmel láthatóan beesik ilyen 5-6FPS-re. YouTube link
  • Inquisitor
    #87266
    OFF: Na jó, de PC-n úgy hozza a 30FPS-t, hogy pl. minimum 2 réteg textúrát lehagy a dolgokról (van egy összehasonlító kép Batman esőben vízzel és PC verzióban szárazon) és még egy kalap effektet is. Azért ez szép. Mondjuk a cikkben írták, hogy kemény 12 ember csinálta a portot, tehát a kiadónak ennyire volt fontos. Majd ehhez is jön megjelenés után pár nappal 1-2-3 GB patch? Ráadásul aki videokártyához kapta, azoktól utólag elvették a DLC-t.
  • grebber
    #87265
    30 fps-re van kitalálva nem véletlen. Az állítgatással csak szarabb lesz állítólag.
  • Federation
    #87264
    Ugyanez fogalmazódott meg bennem is. A 980Ti azért is került szóba, mert 2 év múlva is tudom használni, legfeljebb közepesre állítom a grafikát. Időtállóbb, mint egy középkategóriás kártya. Más előnye nincs.
    Utoljára szerkesztette: Federation, 2015.06.24. 15:14:14
  • bardocz
    #87263
    Még jó, hogy megváltam tőle :D
  • Inquisitor
    #87262
    Ez az új Batman játék szvsz nem lesz a tesztelők kedvence:
    "Rengeteg szörnyűséget lehet felfedezni a PC verzióban, szóval kisregény írása helyett inkább csak a fontosabbakat emelném ki. Az fps például gyárilag 30-ra lett belőve, így ini fájlokban kell turkálni a platformon alapkövetelménynek tekinthető 60 fps támogatáshoz, de ez még csak a kezdet: annyira rossz az optimalizáció, hogy a 60 fps-t még a jelenleg elérhető legkomolyabb videokártyák sem tudják tartani. Gyanús, hogy AMD termékeken ki sem próbálták a játékot, mert akad, akinek 6 képkocka pörög le másodpercenként egy R9 290x-es modellen. Mindennek tetejébe az Arkham Knight egyértelműen szebben néz ki konzolon, mint számítógépen, ugyanis az ambient occlusion és néhány, a vizes felületek megjelenítéséért felelős effekt teljesen hiányzik a PC portból. A grafikai beállítások menüje természetesen gyalázatos, az élsimítást például mindössze be- és kikapcsolhatjuk, a fejlesztők pedig még azt sem kötik a vásárló orrára, hogy milyen AA eljárást használ a játék."
  • Inquisitor
    #87261
    Az benne a szép, hogy ha valaki megnézi a teszteket és megfelel neki a 60Hz+ játékra akkor ezt fogja látni:
    A 2-300K áru kártyákat kenheti a hajára 4K, de néha QHD alatt is, tehát felesleges pénzkidobás.
    Ellenben a felébe se kerülő kártyákkal meg FHD alatt simán lehet játszani, sőt sok esetben még olcsóbbakkal is.

    A sznobok meg aki nem tudja hol elégetni a pénzt vitatkozzanak róla, hogy a 31FPS gagyi, de az ő negyed milliós kártyája bezzeg 37-et tud. :P
  • grebber
    #87260
    Megérkezett az AMD Radeon R9 Fury X
  • Federation
    #87259
    Engem ez a Fury a Voodoo 2 korszakra emlékeztet. Erőlködés. Vízzel hűtve sem képes teljesítményre. Mellette még ott van egy baszott nagy radiátor is. Ennyire telik. Még egy szaros WHQL meghajtót sem tudnak kifizetni. Szánalom ami AMD vonalon megy. Szar processzorok, szar videó kártyák, szar meghajtóprogramok.

    Az Nvidia meg a GameWorks-el vágja haza a játékokat. De ha már választani kellene a két gyártó kártyái közt, mivel jobb nincs így Nvidia marad a 980Ti személyében. HD felbontásra persze. 4K az felejtősen kevés képkocka még.
  • Inquisitor
    #87258
    Hát vannak érdekes dolgok. Nekem ami érdekes az az Unreal és CryEngine játékok, meg a hírhedt Dunia.
    Ehhez képest a Crysis 3 alatt QHD és UHD alatt az ÖSSZES kártya használhatatlan volt. A FarCry 4-ben meg nem várt módon jól teljesített a Fury X. Hát érdekes.
  • alyr2
    #87257
    hat van amiben jobb van amiben nem..kb koppra ugyan az mint a vidia csucs szummazva, ez 4 giga rammal az meg 12 meg nemerdekel mennyivel, ha kiadjak a drivert lehet sokkal jobb lesz de lehet nem. Engem hidegen hagy mert nem en vagyok a celkozonsege.. Tovabbra is a Nano vagy a 380 vagy annak ha lesz X valtozata erdekelne
  • Inquisitor
    #87256
    Elég nagy a szórás hőmérsékletben, lehet nem teljesen egyformán jó a hűtés? Egyik helyen 49 fok terhelve, másik 54, harmadik 58 fok.
    Viszont a 26 fok IDLE-ben elég jó, de látszik nincs most igazi nyári nap 35 fok feletti hőmérséklettel, mert akkor fizikai csoda lenne, ha nem légkondis a helység.
  • Inquisitor
    #87255
    Eleve 650 dollárról volt szó.
  • Thaddeus
    #87254
    Hát ez így csalódás sajnos, kíváncsi vagyok az árára, új driverre, de valszeg 980ti G1 lesz.
  • Borg
    #87253
    Na akkor végülis a 999$-os cimke a dobozon nem stimmel, legalább ennyit engedtek, ha már a 980TI-t sem tudja megszorongatni.

    Namost az ár egyenlő, teljesítményben lemarad 5-10%-kal, fogyasztásban 35-150W-al többet eszik, hűtése idleben hangosabb, terhelésen halkabb.

    Mindez kombinálva azzal, hogy nincs HDMI 2.0, sírnak a kondik ezen is, sőt, sír a vízpumpa is, nincs mem oc, a beépíthetőség is problémásabb... Hát nemtom, had ne én vonjam le a következtetést akkor....
  • Solt
    #87252
    Ez így kevés ennyiért! Bízom benne, hogy driver kérdése.
  • grebber
    #87251
    Fury X review:

    Guru 3D
    Overlock 3D
    Techpowerup
  • bardocz
    #87250
    De csak nagyon ritkán csinálja. Eddig mondjuk ötször. Mindegy, írok nekik mail-t, hátha tudnak vele valamit kezdeni, vagy valakinek volt hasonló.
  • Borg
    #87249
    Azért a "hunting titans" elég konkrét kijelentés volt az AMD részéről...
    De említhetném a sapphire fury x dobozán lévő 999$-os árcímként is, ami szintén nem arra enged következtetni, hogy a 650$-os 980TI ellen kéne mennie árban. Bőven mellé lehet rakni a 750$-os EVGA Hybrid 980TI-t tesztelni. Akkor a ugye a hő, a hang, meg a teljesítmény is összehasonlítható, minden egyéb mellett.
  • Borg
    #87248
    Talán akkor megnézhetnéd a tesztet, ott van feketén fehéren az összehasonlításban a +40W.

    Hogy te a felsorolt tények közül melyiket érzed fikázásnak, a saját egyéni problémád.
  • Inquisitor
    #87247
    Olyan Bios hibának látszik ami régen volt valamelyik első szérián (talán HD4870? Vagy 3870?), amikor alap Bios csak már 80% feletti terhelésnél kapcsolta be a ventit rendesen és voltak túl melegedések. Aztán lehet valami egyedi hiba, rossz feszt kap a kártya. Sajnos az alapos és rutinos szervizesek kihaltak jó részt.
  • Inquisitor
    #87246
    Miért kell életbe vágó kérdést csinálni és szájkaratézni olyan kártyákról amit úgy se veszünk meg?
    Az AMD gyártástechnológiája lemaradt, nem feltétlenül a saját hibájából, a Fury felépítése ismert az árazása alapján meg a GTX980 Ti ellenfeleként jött ki a Fury-X. A 980Ti és a Titan-X között nincs akkora nagy difi játékban. Most innentől csak a funoknak és fikázóknak érdekes, hogy a 980Ti felett vagy alatt lesz pár százalékkal. Másrészt eddigi kártyák tudása alapján pont csak FHD feletti felbontásokban lehet előnye. Más kérdés, hogy még a játékosoknak is kis százaléka tud vagy akar 5-700 dolláros kártyákat venni. Szóval az egész egy presztízskérdés csak.
    Annyiból fontos, hogy AMD meg tud e maradni talpon addig, amíg a Fiji utódját és annak negált verzióit le tudja gyártani 14nm-en vagy sem.
    De itt veszekedni van értelme?
    A TDP meg semmit nem jelent, mert simán lehet egy csomó játék alatt egyik vagy másik kártya nem használja ki a maximumot, míg más esetben egyazon programnál lehet egyik 100%-on pörög a másik meg nem. Szóval simán lehet 35-40W valós differencia, pláne olyankor amikor egyik kártya sem használja ki a maximum TDP-t.

    A Fiji Xt még is csak egy dupla Tonga csak gyorsabb ramokkal.
  • bardocz
    #87245
    És gondolom majd 24 órán át fogják folyamatosan tezstelni, és kicserélik. Nem pedig visszaküldik, hogy náluk nem jelentkezett a probléma...
  • Maala
    #87244
    Valóban érthetetlen, miért jössz egy AMD-s topikba csak és kizárólag fikázni az AMD-t. Talán azért, mert egy csöves troll vagy.

    Az elvakult tényeidről meg annyit, hogy a 980Ti/TitanX TDP-je 250W, a Fury X TDP-je meg 275-öt. Ennyit a 40W-ról.
    Utoljára szerkesztette: Maala, 2015.06.24. 12:34:47
  • Solt
    #87243
    "puszta tényekről volt szó."

    Néha komolyan nem értem mi üt beléd! :D
  • Borg
    #87242
    Elég nagy szégyen lenne, ha az AMD nem bocsátott volna a tesztelők rendelkezésére friss drivereket... bár ugye meglepő se lenne igazán.
  • Borg
    #87241
    Igazad van, helyesbítek, néhány helyen a 980 OC-t se.
    Ellenben 40W-al többet kajál még a titánnál is.

    Nem kell ehhez se káröröm, se gyűlölet, puszta tényekről volt szó.

    DE nyilván, majd csak az lesz a mérvadó, és jó teszt, ahol az AMD-nek kedvező beállításokkal és játékokkal tesztelnek, mint pl a PH :) Várom már nagyon.
    Utoljára szerkesztette: Borg, 2015.06.24. 12:07:40
  • alyr2
    #87240
    Varjuk meg a fury/300 szeria drivereit aztan azzal meg a friss nv driverekkel csinaljanak tesztet. allitolag meg nincs driver az uj szeriahoz, gondolom szamit valamit
  • Solt
    #87239
    Nem jó... annak semmi értelme! :D Most jó vonaglani, mert ha bejön, akkor lehet mondani, hogy "én megmondtam, szar az egész AMD", ha meg nem jön be, akkor el lehet sunnyogni amíg más örül! :))
    Utoljára szerkesztette: Solt, 2015.06.24. 12:05:29
  • Thaddeus
    #87238
    Várjuk már meg a hivatalos, nagy tesztoldalak tesztjeit, mielőtt úrrá lesz rajtunk a káröröm és az elvakult gyűlölet, jó?
  • Solt
    #87237
    "a léggel hűtött 980TI-t se bírja elérni a Fury"

  • Borg
    #87236
    Ja, bocs, akkor én nem is nézek teszteket, mert nem vagyok potenciális vásárló a HDMI 2.0 hiánya miatt, plusz a rövid nyák miatt a tápcsatikat én nem tudnám bekötni az SFF házamban. Ennyi, kalap kabát.
    De azért várom a további kifogásokat, hogy miért nem számít az, hogy a léggel hűtött 980TI-t se bírja elérni a Fury.
  • alyr2
    #87235
    Én nem vagyok egyik oldal partjansem:D minde 2 yartotol van kartyam..csak meguntam hogy a Vidias fanok minden amd hir alatt idiotaskodnak, igy ahol ezt tapasztalom beugatok en is nehogy mar csak ok :D Szemely szerint telibeszarnam azt is ha mind 2 ceg eltunne a picsaba
  • Maala
    #87234
    Várj már még délután egyig, amikor kikerülnek a Furyk az NDA alól...

    Meg jó lenne, ha nem ütnéd egyik félmondatoddal a másikat. A 980Ti ugyanis a legtöbb tesztben pár %-al gyorsabb volt a TitanX-nél... (Mert a 980 Ti-re már ugye engedélyezték a custom hűtési rendszereket a gyártóknak, míg a TitanX-ek minden esetben referencia hűtésesek, emiatt a 980Ti-k nagyobb órajelen tudnak futni 12GB-vel szerelt társaiknál)

    Egy kártyának mindenkor azzal kell versenyeznie, amivel egy árban van. A teszteket (és itt többesszám van, nem csak egy tesztből kell levonni a következtetéseidet) is így kell nézni, legalábbis egy objektív potenciális vásárlónak. Az meg, hogy magának a termék gyártójának, vagy az alyr-féle AMD-, netán a Borg-féle NVidiabuzik véleménye mi az adott generációról, és pláne a másik tábor termékeiről (főleg a tesztek eredményeinek ismerete nélkül), teljesen irreleváns.
  • Borg
    #87233
  • Borg
    #87232
    Miért ne lenne valós... csak a szokásos AMD féle költői túlzást tükrözi, amit eddig minden évben. TX verés helyett lett egy éppenhogy sima 980 verés. Legjobb esetben is csak a 980TI körül sertepertél.
  • grebber
    #87231
    AMD RADEON™ R9 FURY X 4GB HBM 4096-bit Review (valós-e vagy sem nem tudni)
    Utoljára szerkesztette: grebber, 2015.06.24. 09:39:25
  • Borg
    #87230
    Attól hogy beírod ugyanezt még 15 topikba, nem fog megoldódni a gondod. Rá kéne jöjjél végre, hogy szart vettél, és vidd vissza. Ennyi a nyitja a dolognak. Nem a drivert kell cserélgetni mint a szaros alsógatyát... ha egyszer valami megy jól, ahhoz nem kell hozzányúlni. A gameready driverek is csak 2-3% plusz teljesítményt hoznak. Ha ezért valaki (főleg egy fix 30fps-es fos konzolportnál) feláldozza a jól bevált stabil driverét, az meg is érdemli.