90029
  • Inquisitor
    #85859
    Ha figyeli valaki már rég nem csak TN panelből van 120-144Hz-es készülék, és ellentétben a sok hülyeséggel amit a PH témában írtak minimálisan drágább az A-Sync monitor a sima monitornál, ott is inkább a magasabb képfrissítés újdonságát kell megfizetni. Másrészt ha valaki figyelte a teszteket, azokból az jön le, hogy ha van 120-144Hz monitorod, akkor majdnem tök felesleges az A-Sync/G-Sync, olyan extrém esetben amikor 30FPS vagy kevesebb van, meg már tök mindegy.

    Borg, az "NVidia megoldásával" az a baj, hogy külön elektronikát igényelt, ha ezt nem akarták volna a gyártók kikerülni, nem vártak volna egy évet a saját megoldásaikkal. Ez sok extra költségbe került, az NVidia licencről meg nem beszélve. Éppen ezért lövik magukat tökön, mert senki nem fog majd' 200 dollárt kifizetni pluszba a G-Sync megoldásért. De egy Rambus szintű licenc genyózást és pénzlehúzást beállítani technológiai fölénynek elég gáz. Más kérdés, hogy szvsz a 20 nanométerre állás sem fogja AMD oldalán a fogyasztás-teljesítmény mutatót az NVidia megoldása elé helyezni.
  • broman191
    #85858
    Bőven. (PH!) Azzal sincs semmi gond, hogyha terhelés közben visszaesik egy kicsit a feszültség...amíg a leadott teljesítmény stabilnak érződik. :)
  • lo9in
    #85857
    üdv.
    az normális hogy az a10-5800k 1,4v-on 4500mhz-t megy ?
    (terhelve droppol olyan 1,35v körülire)
  • Solt
    #85856
    Ezért írtam, hogy ne menjen csődbe, ne tűnjön el, de, hogy ezen kívül mennyire jó a könyvelőjük, az hidegen hagy. Nyilván az NV valamit jól csinál üzletileg, mert állandóan nyereséges, ezen nincs mit vitatni. De ettől még ez a húzás nem vagyok benne biztos, hogy azt az eredményt váltja majd ki hosszú távon, amire gondoltak... Értem ezalatt, hogy ez az üzleti magatartás a függetleneket átbillentheti... nem egy olyan hozzászólás van a hír alatt, ami ezt támasztja alá...

    Tudod nagyon jól, én ide-oda ingázom... nem tapasztaltam eddig lényegi különbséget, de ez az utolsó csepp volt a pohárban nálam. Nekem is van cégem, engem is zavar amikor a többiek gerinctelen húzásokat csinálnak, csak én túl kicsi vagyok ahhoz, hogy lényegi befolyásom legyen erre...

    Már attól jobb lesz lelkileg, ha anyagilag nem támogatom az ilyen üzleti magatartást...
  • Borg
    #85855
    Hosszú távon minden usert pont ugyanúgy érint, hogy ezek a cégek mennyire sikeresek üzletileg.
    Ha nincs konkurencia azért, ha van akkor meg azért.

    Gondolom te se szeretnéd, hogy az AMD egyszercsak kiszálljon a PC-s dGPU bizniszből, csak mert nem éri meg. Pont úgy, ahogy a Panasonic a plazmából, vagy a Sony is próbál kihátrálni a telefonok meg a TV-k mögül. Ez senkinek se jó.
  • Solt
    #85854
    Tehát NV részvényes vagy? :D Nekem nincs AMD részvényem, ergo pont hidegen hagy az üzleti sikerességük, sikertelenségük! Ne menjenek csődbe, legyen verseny, a többi nem érdekel... én a saját (júzer) érdekeimet nézem, nem az NV érdekeit, és nem az AMD érdekeit.

    De, ha már üzleti modell... olvasd már el mit írtam az első sorba... abból nem következik az, amit válaszként írtál...

    1 évvel előtte, a közösből kilopott (?) megoldást... Nem kell kukázni... ha olyan kurva jó, versenyeztessék! Nem kell mást tenni, csak támogatni a másik megoldást, és nem szándékosan hátráltatni. (DP 1.2a)
  • Borg
    #85853
    Mégsem az nvidia van csődben, hanem az amd... szal akkor ne próbáljuk már megmagyarázni, hogy üzletileg mi volt a jobb modell.

    Ők kihoztak egy megoldást több mint 1 évvel az async előtt, ami azóta is elérhető, és működik. Nyilván nincs az a körülmény, ami miatt azonnal kukáznák. Majd akkor, ha az async tényleg teret hódít. Ráadásul az async támogatása egy akármilyen időponttól semmibe se kerül nekik, a gsync mellett se. Nyilván amint úgy érzik, elkezdik támogatni driveresen is az asyncet (hiszen hardveresen nincs akadálya már most se), és azzal majd szép lassan kikopik a gsync is. Minek kapkodnák el... az amd userek elégedett hümmögése őket eléggé hidegen hagyja, főleg üzletileg.
  • lo9in
    #85852
    üdv.
    az normális hogy az a10-5800k 1,4v-on 4500mhz-t megy ?
    (terhelve droppol olyan 1,35v körülire)
  • Solt
    #85851
    Szerintem üzletileg sem érthető... a bevétel maximalizálást értem, de ez csak rövid távon érvényes, hosszú távon ezzel nem biztos, hogy jól járnak. Egy PH fórum nyilván nem mérvadó, de nem egy ingázó embertől láttam azt amit én is írtam, hogy ez volt az utolsó csepp a pohárban az NV részéről. Szerintem jobban jártak volna azzal, ha támogatják, és aki eddig vett G-sync monitort, annak adtak volna valami kupont kárpótlásként...

    Arról nem is beszélve, hogyha igaz amit írnak, és az NV a többiekkel közös fejlesztésből nyúlta le és adta ki hamarabb a technológiát, akkor meg különösen gusztustalanok ezzel a magatartással.

    Bízom benne, hogy az LG és a Samsung nem hátrál meg... ha így lesz, akkor csak a középkategóriás gyártók cuccai lesznek csillagászati áron G-sync panellel... aki meg kiad egy átlag gyártó 24"-s, TN paneles monitoráért 140-150 ezret, az meg is érdemli! :))
  • Solt
    #85850
    ITT elég naprakész infók szoktak lenni, szerintem érdemes figyelni, ha érdekel a téma! :)

    Egyébként szerintem a 380X fog kb 10%-l többet tudni mint a 290X, a 390X pedig majd a 980Ti, Titan 2 közé érkezik...

    A másik témához annyit, hogy állítólag mostantól az lesz a módi, hogy az új generációkból mindig jön majd egy ilyen előhírnök, hogy a programozók fel tudjanak készülni az újításokra, és ezekhez képest kb egy év múlva debütál majd az új széria.
  • Solten
    #85849
    Uzletileg ertheto csak az Nvidia nem olyan nagy ceg hogy diktalhat. Szerencsere. Remelem az LG es Samsung jol megfingatja.
  • Inquisitor
    #85848
    Chiphell oldalon volt egy pár soros írás egy emberkéről aki tesztelgetett (nem végleges) 390X kártyát. Nem tudom mennyire volt valós a teszt, minden esetre ott 3D Mark 11/13 eredmények voltak csak, ami szvsz pont NEM mutatja játékban mit tud valójában egy GPU. Az alapján a 290X ennek a 70%-át tudja, ami a szokásos "közel gyök kettő" gyorsulást hozza, ami szokás generációváltásnál. Viszont ami nagyon nm tetszett a képen a kártya egy slotos hátlappal van, ami böszme hibrid folyadékhűtést sejtett, ami fogyasztás és melegedés szempontjából elég gáz.

    Meg akartam keresni, erre törölve lett az összes fórumtéma X390 témában.

    Másik téma a 285X alapját adó Tonga valójában 2048 steam procit tartalmaz, mivel van belőle ilyen apple verzió is. Gondolom az X300 sorozatban kiadják még egyszer csak teljes értékű változatban?
    Utoljára szerkesztette: Inquisitor, 2015.01.27. 23:21:16
  • BooMiller
    #85847
    Figyi birkák ezt is megveszik, nekem már feltűnt a hasonlóság a fidióták és a zöldhájogosak között:))
  • Solt
    #85846
    Beleolvastam a kommentekbe... még fél óra, és meggyőzik egymást arról, hogy ez tulajdonképpen jó, és egyébként is a gsync volt előbb, miért nem ahhoz igazodnak a többiek... :DDDD

    2015-ben ott tartunk, hogy a legolcsóbb G-sync monitor ( 24" ) 140000.-Ft, ami ráadásul gyártóhoz köt, és ennek az emberek gyakorlatilag tapsolnak... sőt a többi cég mekkora szemét, hogy az NV vérverejtékes munkája után, van pofájuk ingyenes szabvánnyal előállni... :DDD

    Nekem elegem volt... egy darabig fix, hogy nem lesz többet NV kártyám... tőlem egy jó darabig ezek egy fillért nem látnak... :)
    Utoljára szerkesztette: Solt, 2015.01.27. 21:17:22
  • arty
    #85845
    szerintem ezt Borgon túl mindenki belátja :D (jójó, nem csak ő elvakult)
  • Solt
    #85844
    Hányinger ez a cég, bárki bármit is mond...
  • Solt
    #85843
    Szerintem a 290X tulajok sem szenvednének túl nagy csorbát... :)
  • Borg
    #85842
    Én persze hogy nem bánnám, de nekem a 980-nak még van is TDP tartaléka erre :D
  • Solt
    #85841
    Részemről inkább küzdök a hűtéssel... jöjjön csak az a gonosz low-level API, izzassza meg a CPU-mat jó alaposan! Talán egyszer a normális látótávok is elérhetőek lesznek ennek köszönhetően... :)

    "ha a DX12 vagy Mantle majd egyszer a távoli ködös jövőben kihozza belőle azt a laposkúszásban megsunyuló extra teljesítményt, amit most még nem lehet előcsalni, mert szar a directx, meg szarok a játékmotorok is."

    Ez így jópofa szöveg, de semmit több! :) Száraz tény, hogy a mai hardverek sokkal többre lennének képesek mint amit mutatnak magukból, mint ahogy az is száraz tény, hogy ez a szoftveres rétegnek köszönhető. Ezen kár vitázni... szerintem te sem bánnád, ha a BF sorozat komolyabb fizikával, és sokkal komolyabb látótávval jelenne meg... és akkor még a közeljövőben érkező VR még szóba sem került... ;)

    Nekem a 4770K-t egy H80 hűti... IBT alatt pont határon vagyok vele 4.4GHz-n... ezt a terhelést semmilyen API nem fogja megközelíteni, tehát a hűtés engem nem érint! A 290X a coustom hűtőkkel meg teljesen jó értékeket produkál... több óra BF után is ilyen 70 fok körüli értékeket linkelgetnek...
  • Borg
    #85840
    Lehet hogy arra gondolt, hogy a nitrousból lesz e értelmes játék is, ami megéri ezt az egész fejlesztést, meg hőtermelést :)

    Ez olyan, minthogy egyesek szerint a 290X se fog attól jobban melegedni, ha a DX12 vagy Mantle majd egyszer a távoli ködös jövőben kihozza belőle azt a laposkúszásban megsunyuló extra teljesítményt, amit most még nem lehet előcsalni, mert szar a directx, meg szarok a játékmotorok is. Pedig már alapból se egyszerű meghűteni a 290X-et.

    Az 5960X is olyan, hogy alapból is nehéz jól hűteni, nemhogy még ha valami ki is használja... A Xeon E5645-öm is szépen elvolt max 50 fokon, de aztán jött az új CAM, ami már 12 szálra tud terhelni (néha...), így 60 fok fölé is bekóstol simán. A Quadro 4000 se ment soha 80 fok fölé, de a múlt héten már a desktop is akadt egy szimuláció közben, ránézek, erre 95 fokon szabályozgatta le magát a szerencsétlen egyre kisebb órajelre :)
  • Solt
    #85839
    PH-n megjelent egy cikk a Nitrous motorról, jelenleg ott tart, hogy 90%-n tekeri egy Core i7-5960X minden magját...

    Hozzászólásoknál az egyik júzer kérdése: "Ha ettől nem melegszik a prockó akkor semmitől. Jó az nekem ha csúcsra jár minden mag?"

    Sokkot kaptam... :D
  • Blum
    #85838
    Nem. Minimum 24V kéne neki.
  • broman191
    #85837
    Mire gondoltál pontosan? Kevés? Sok? Mivel nagyjából elérted azt a határt, amelytől fentebb már alig emelhető stabilan a bizonyos CPU órajele, akármennyi kakaót adsz neki... :)
    Utoljára szerkesztette: broman191, 2015.01.26. 20:46:32
  • lo9in
    #85836
    üdv az normális hogy a a10-5800k 4400mhz-n fut 1,4voltal, ezt úgy értettem hogy tuningoltam
  • broman191
    #85835
    162e Ft a legolcsóbb helyen az árukeresőn...de ugye valamit valamiért, az A4team trükközik a garival, így csak 1 évet adnak rá (ami szvsz rossz vicc, főleg egy ilyen drága terméknél), a bluechip-nél a szokásos 2 éves Sapphire garival 178e Ft...ami elég horror, már pusztán az MSI-féle 8 GB-os változat (165e Ft @ bluechip) 3 éves garijának viszonylatában is... :)
    Utoljára szerkesztette: broman191, 2015.01.26. 20:19:31
  • grebber
    #85834
    Az ilyen 8GB-os 290X mennyibe fáj legolcsóbban? Argep csak MSI-t dobja ki ami 143K.
    Ez az "érezhetően olcsóbb lesz az eddigi 8 GB-os Vapor-X opcióhoz viszonyítva" dolog vajon mennyit jelent majd?
  • Solt
    #85833
    290/290X-l tolja valaki az ETS2-t? :)
  • broman191
    #85832
    "A gyári tuning viszont 1020 MHz lett, ami 20 MHz-es emelést jelent"...0.5 FPS+ 100-nál, yay.
  • grebber
    #85831
    Olcsósítja 8 GB-os Radeonját a Sapphire
  • broman191
    #85830
    'Unfortunately I am an 970GTX SLI user'...most mindenki lehajtott fejjel, pár könnycseppett elmorzsolva érezze át felhasználó társunk fájdalmát! Sanyarú az élet...



    Attól függetlenül, hogy mindez nem minősül 'hibás' működésnek, attól még nagyon is valós szopórollerezés...és mivel a frametime eltérések gyilkolják miatta elsősorban a játékélményt, nem csoda hogy az FPS alapra helyezett tesztekben nem igazán sikerült látványos eltérést kimutatni. Bárhogy nézzük, mindenképpen csalódásra ad okot, egy felsőkategóriás videokaritól elvárná az ember, hogy nem szenved ilyen gyermekbetegségekben...no de költséghatékonyság rulZ! Tisztább lapokkal is játszhattak volna a maradék 512 MB-hoz tartozó számoló egységek teljes letiltásával és osztozott volna 4 GB-on valamivel lassabb sávszéll mellett a többi egység...persze úgy nem lett volna 'optimális'. Ilyenkor azért a hardver sajtóban is csalódhat kicsit az ember, hogy ~4 hónap után derülnek ki ilyen 'apróságok'... Egy kis GTX970 árcsökkentést megérhet a dolog, hogy ne csorbuljon annyira a zöldek becsülete, ha már sunyik voltak...

    ui.: Artynak van igaza! ;-)
    Utoljára szerkesztette: broman191, 2015.01.26. 17:58:46
  • Solt
    #85829
    Hááát, hogy őszinte legyek, én artyval értek egyet... minden fos, csak másképp! :))
  • broman191
    #85828
    Meggyőződésem hogy az AMD-nél ilyen nem fordulhat elő soha, őket annyira nem fogja meg 'a fogyasztás csökkentése érdekében' kezdetű filozófia...így extra fícsörként télen bemelegíti a szobát a felsőkategóriás GPU és a kapcsolódó 4 GB memória sem 3.5+0.5 GB...
    Utoljára szerkesztette: broman191, 2015.01.26. 17:10:00
  • Borg
    #85827
    Vagy nem...
  • Solt
    #85826
    Ennyit a 970 "hibás" működéséről, kedves Tirexi 2.0!! :D
  • arty
    #85825
    ennél egy catalystos hiba sokkal komolyabb, nemigaz? :D
    egyébként nem vagyok meglepve, anno a 8800gts-ben, a 9600gso-ban is redva volt a ramvezérlő...

    de neked gondolom ezeket írhatom, ződ szemellenző gátol, h lásd a realitást: minden fos, csak másképp ...
    Utoljára szerkesztette: arty, 2015.01.25. 16:18:30
  • arty
    #85824
    gtx-ed van még mindig, ugye?

    nos, tedd csak fel a win10et, nagyon jó kis oprencer :DDD
  • TomBond
    #85823
    Nem idevaló kérdés, de félkész op rendszert nem teszünk fel fő op rendszernek!
  • lo9in
    #85822
    üdv.
    rosszalkodik a féléves win8.1em
    fel szeretném rakni a windows 10 build 9926-ot
    van valaki ki próbálta ?
    mégis milyen ?
  • broman191
    #85821
    Nem tűnik égető bottleneck-nek az az 1-3% veszteség a GTX 980-hoz képest...már ha egyáltalán a beismerten komplikáltabb memóriakezelésből fakad a jelenség és nem pusztán a két GPU közti párszáz shader egységnyi eltérésből, amire általában lehet fogni a növekvő teljesítmény rést, a számításigényesebb grafikus beállítások felé haladva...nekem nem úgy tűnik, hogy bármit is sikerült volna egyértelműen bizonyítaniuk.
    Utoljára szerkesztette: broman191, 2015.01.25. 00:01:24
  • Solt
    #85820
    Azt kaptad, persze... az ne zavarjon, hogy 980 esetében is fenn áll ez! :D Egyébként pubi, ott az NV válasza, hogy lehet, hogy nem fogadod el? Ami valós probléma, az nálad képzeletbeli gumicsont, amire az NV-nek van válasza, azt meg számon kéred köpönyegforgatás címszóval?? Te most tényleg élvezed, hogy hülyét csinálsz magadból? :D Tirexi 2.0!! :DDDDD

    Az lenne a legszebb, ha tényleg valós szopatás lenne, és az NV bevitte volna a sok zöldhályogos marhát az erdőbe... sírnék a röhögéstől, ha ez egy valós és általános probléma lenne a 970/980 esetén... annyira megérdemelnétek! :))

    Tudom, hogy neked ez túl magas, de én csak azon rágódom, ami valós probléma számomra... szeretnéd, hogy soroljam, hol fos a 780? :)