90029
  • Solten
    #80223
    Mifele driverekkel keszult ez a teszt beta, nem beta windows 8 driverekkel? Tesztkonfig? Az AMD-nek van power control ficsorje, +20%-ra volt allitva? Csak azert mert az Nvidia nem tud ilyet es igy termeszetesen alapbol maximalis teljesitmenyt ad le. Hiteles igy az osszehasonlitas?
    Ilyen izzadtszagu kinosan osszetoldozott felinformativ tesztet is mar reg olvastam :)
  • Solten
    #80222
    "Csak arra próbáltam rávilágítani, hogy a végfelhasználó számára pont olyan semmitmondó technika, mint az opencl szabvány. Senki nem látja előnyét, hiába létezik."

    Reszben egyetertek, azonban azt nem ertem hogy az nvidia fanboy akkor megis miert fap-ol eroteljesen a physx-re. A masik oldalt nezve senki nem kap orgazmust az opencl miatt. Hovatovabb az AMD legalabb nem a zart szarjat erolteti hanem egy nyitott rendszer mellett voksolt.
  • Solt
    #80221


    Mindkettő AMD-vel készült, ráadásul ez még a HD6990-l. Nem hiszem, hogy a felsőnél egyenesebb "görbét" lehetne produkálni NV-vel...

    Már bánom, hogy anno az NV kártyámmal ezt nem csináltam meg... :S

    A cikkhez pedig annyit, hogy ez simán lehet még a win8 driverek hibája... Arról nem is beszélve, hogy a grafikon különbségek jöhetnek az eltérő frame számból is. Akkor lenne korrekt az összehasonlítás, ha a teszt közben minden vga-n fix 60fps lenne, és minden teszt azonos ideig futna.
  • Solt
    #80220
    Most akkor én hihetek a saját szememnek, vagy ennek a cikknek kell hinnem? Ugyanis én ilyet nem tapasztaltam... persze indokként arra jó, hogy miért adjon valaki több pénzt ki...
  • Borg
    #80219
    Vaalakinek esetleg szakmai hozzászólása a cikkhez?
    Vagy marad az óvoda?
  • IMYke2.0.0.0
    #80218
    Segítek: próbáltam lezárni ezt a meddő beszélgetést veled.

    Ez az AMD Radeon topik, nem az 'istenítsük az nVidiát' zöld topik. Ha flame-keltés volt a célod, az sem járt sikerrel, ahogy az sem, hogy most sikítva rohanjon mindenki GF-t venni magának karácsonyra...
  • Borg
    #80217
    Ja értem, tehát mindegy mi a téma, csak nvidiát lehet szidni, mert ami az amd ellen szól, az csak hazugság lehet.
    Teljesen igazad van, ez a topik erről szól. Szomorú is, hogy te is még csak ezen a hitvita szinten létezel...
  • IMYke2.0.0.0
    #80216
    Feleslegesen erőlködsz - ez a topik nem zöld...
  • Borg
    #80215
    Ha el se olvasod, fel se fogod, akkor legalább véleményt ne mondj róla...


    Amúgy a legtöbb helyen ugyanígy reagálnak a cikkre, szal kb mindegy. Van x nvidia user, aki csak annyit ir, hogy ő már rég megmondta ezt, amikor váltott, meg van y amd user, akinek nincs összehasonlitási alapja, és habzik a szája, hogy hogy mer bárki rosszat mondani az aduász kártyájára. Remélem más oldalak is elkezdenek a módszerrel tesztelni, és kiderül mi van.
  • IMYke2.0.0.0
    #80214
    3 oldal után a végére ugrottam, ahol előadta, hogy ők mennyire másként tesznelnek, mint mások, meghogy ha a 'recegések' nélkül akarsz játszani vegyé' envídiát.... kösz, elég volt.
  • Borg
    #80213
    Akkor végülis kölcsönös a dolog. Bár azért reméltem, hogy egyáltalán elolvasod.
  • IMYke2.0.0.0
    #80212
    Nem vártam mást tőled.
  • Borg
    #80211
    jaj...
  • IMYke2.0.0.0
    #80210
    (ál)Tudományosan bebizonyítva, hogy nVidi-ra írják a játékokat. Mi ezen meglepő?
  • Borg
    #80209
    Nincs is sok értelme vitatkozni a physx témáról, mivel irreleváns dolog a játékok összeségét nézve. Csak arra próbáltam rávilágítani, hogy a végfelhasználó számára pont olyan semmitmondó technika, mint az opencl szabvány. Senki nem látja előnyét, hiába létezik.




    Sokkal több értelme lenne erről a cikkről beszélgetni.
    Ezek itt gyakorlatilag bebizonyították amit évek óta mond mindenki aki áttért ATI-ról nvidiára, hogy nvidián érezhetően sokkal simábban fut minden, még akkor is, ha az ATI netán magasabb fps-t ér el.
    Most vajon síri csend jön, vagy valami szemellenzős fasság? Kiváncsi leszek.
  • Solt
    #80208
    Tegnap volt itt, csak szelektív a látása... :D
  • IMYke2.0.0.0
    #80207
    Solten ezer éve járt erre - mi van vele?
  • Solt
    #80206
    A látótáv kivételével igen! :)) Csak tesztelgettem, hogy milyen a 6990-hez képest, és bizony igencsak erősebb... gondolom nem skálázódott jól a CF! :)
  • arty
    #80205
    na, ezt nem gondoltam volna :) (de becsszóra, minden maxon van? :D )
  • kifli
    #80204
    lehet, nem sokat aludtam az elmúlt napokban . Bár te tényleg ennyit szűrtél le belőle? Innentől értelme nincs a véleményeddel foglalkozni.
  • broman191
    #80203
    :DDD
  • Borg
    #80202
    Te tényleg ly-el írtad a munkájukat? :D Innentől tl;dr :D
  • Solt
    #80201
    Ennyi...
  • kifli
    #80200
    Mafia 2 pl elég igényesre sikeredett szerintem, abban is volt physx. Bár ott fejlesztők akarták használni, arra amire való. Egykártyás rendszerek meg is adták magukat, így nvidiások nagyrésze sem tudta élvezni rendesen...
    De álltalában ha megnézed, a nagy AAA címek nem támogatják a physx-et, még akkor sem, hogyha nvidia logos játékról beszélünk.


    Metro fejlesztőket nem nevezném annyira igényes fejlesztőnek, elég megnézni az eddigi munkályukat, 2033 értékelhetetlenül futott. Arma2 sem egy gyöngyszem, főleg nem optimalizáció szempontjából. Szerintem armával csak azért játszik bárki is (énis), mert nincs alternatíva...
    Így BIS-t sem helyezném, az igényesebbek közé. Bár azért ők tekintettel vannak még mindig a felhasználókra. Pont ezért nincs gpu physx arma3-ban.


    És egyébként igen, az a fejlesztő, aki egy olyan platformra fejleszt, ami a felhasználók felének nem elérhető, közben van mindenki számára elérhető megoldás, annak csak az számít, melyik gyártótól mennyit kap ezért. Innentől bele lehet gondolni, mennyire érdekli a felhasználók véleménye.


    Végülis minden fejlesztő mérlegelhet, nvidiától pénzt, amd-től segítséget kap a fejlesztéshez. Innentől döntsd el te, hogy melyik jobb a felhasználónak.
    Nem igazán láttam még, ótvarul optimalizált, amd logos játékot, ha viszont az nvidia logo jut eszembe, akkor a kevés fps valahogy velejön (nem csak amd kártyával). Crysis 2-nél sem a fejlesztők akarták, a mesterségesen magas gépigényt, csak megfelelő összeget kaptak érte... (tudod, a föld alatt is renderelte a motor a hullámokat, meg a vizet)


    De ITT egy játéklista, emeld már ki nekem azokat a átékokat, amik AAA címek és sikeresek lettek.
    Én ha belegondolok, mafia2, advanced warfighter 2-t játszottam végig ezek közül. metro-t elkezdtem, csak aztán valahog ynem folytattam. Illetve cryostatsis-al i hasonló a történet. Illetve planetside 2-vel játszogatok.
  • IMYke2.0.0.0
    #80199
    Az nVidiás Pisix egyértelműen az ördögtől való.
  • Solt
    #80198
    7970-n már nagyon szépen fut... :)
  • arty
    #80197
    fizix téma egyértelműen fekete. de szívesen meghallgatom, hogy megpróbálod fehérre mosni...
  • Borg
    #80196
    Itt, ja. Ahol minden fekete és fehér, mert úgy egyszerűbb kezelni a témát :)
  • arty
    #80195
    nem hülye, csak "lefizették" :)
    mivel így kicseszett egy csomó játékossal, velónk, így azért tarthatjuk patkánynak, nem? nyilván a főgenya a vidia, ez szvsz sosem volt kérdés.
  • Borg
    #80194
    Ja értem, szal ha physxes, akkor már nem igényes fejlesztő :D
    Aki egy nvidia technológiát támogat, az csak hülye lehet. (főleg ebben a kényelmes topikban)
  • broman191
    #80193
    -et*
  • broman191
    #80192
    Ez lényegében másodperceketet sem jelent, millisec értékekben beszélt. Otthoni feldolgozásnál is lényegében millisec értékekről beszélhetünk, például egy xbox360/ps3 input lag-ja nagyobb mint amit egy PC képes nyújtani, mégis ms érték, tehát nagyon kevés eleve, ezért nem feltétlen tűnik fel a "nagyon kevésnél még nagyon kevesebb"...csak ha valaki "nagyon hardcore". :D
  • broman191
    #80191
    Persze, összetett folyamat, magyarázta, tehát a szerver feldolgozási késedelme, aztán a netkapcsolat késedelme, majd a dekódolás elkészültének késedelme, majd a megjelenítőre jutás késedelme. A folyamat összeségében kevesebb mint ha otthoni gép dolgozik helyben és az otthoni gép a megjelenítőre juttatja a képet. :)
  • kifli
    #80190
    valaminek ki kell tolnia a képet a tv-re :)
    Valami iptv-hez hasonló vevőegység, csak kezeli a kontrollert is nem? Mert iptv másodperceket késik analoghoz képest.
  • broman191
    #80189
    Nyilván az adás vétele utáni dekódolás során természetesen valamennyi késés pluszban jön. Viszont még ígyis kevesebb az input lag összesen, mintha a saját gép számolna, Carmack bá' ezért is jegyezte meg, mivel sokak jöhetnek azzal hogy nem elég hardcore a Quake 3 idők rajongói főleg, de éppen hogy még hardcore-abb megfelelő hálózati szerverrel és netkapcsolattal ilyen tekintetben mint az otthoni PC-zés... :)
  • broman191
    #80188
    Ha minden igaz a cloud gaming-hez igazán videokártyát tartalmazó hardver sem kell, csak egy kis vevőbox kábeltv-szerűen, ahhoz csatlakozik a kezelőszerv, megjelenítő stb. :) Kíváncsi leszek így a warez-t hogy oldják majd meg...lopom a szomszéd levédetlen wifi-jét helyett lopom a szomszéd felhőjét?
  • kifli
    #80187
    a képet továbbra is a videokártya fogja adni, mégha nem is ő rendereli a 3d-t. A csúszás így megmarad pluszban nem?
  • broman191
    #80186
    Már gyártottak többé-kevésbé hivatalosan: az Xbox720 és a PS4 hardvere is fog támogatni cloud gaming szolgáltatást ha minden igaz, szóval a vidia' esélyesen arra tesz, hogy a cloud gaming pár éven belűl beindul gőzerővel, aztán lesz a konzolokban olyan hardver amilyen, hosszútávon nem lényeges...legyen mondjuk ATi-AMD grafikus chip mindkettő konzolban gyárilag, de a cloud gaming idők beköszöntével attól még az nVidia grid prockói futnak majd a cloud gaming szerverekben, bizonyos meghatározó szolgáltatóknál...my bad, rosszul emlékeztem, csak partnerség van a vidia' és a Gaikai között - [URL=http://androidcommunity.com/nvidia-takes-on-onlive-with-geforce-grid-20120516/]"The company *nVidia* demonstrated their brand new GeForce Grid in partnership with Gaikai[...]"[/URL]. ;-) Hosszútávon lényegében az nVidia rabszolgái ígyis-úgyis, mivel a technikát ők adják... Úgy rémlik hogy a Gaikai szervereiben lévő videokarik csak 1 játékost tudtak kiszolgálni egyszerre a vidia' partnerség előtt, most az ő Grid procijukkal már 2 játékost per szerver, jövőre 4, aztán 8, elvileg ilyen léptékben tudják majd fejleszteni a Grid proci technikát, mondta egy nVidiás' fejes valami okos cikkben pár hónapja. Elég komolyan gondolják a cloud gaming-et, ha 1-2 éven belűl nem is fog a hardveres korlátok miatt széleskörben elterjedni a felhős játék, 3-4-5 év múlva már egészen biztosan lényeges teret hódít... Csak érdekességként megjegyezve John Carmack mondta talán az idei QuakeCon keynote-jában vagy utólagos interjúban valahol, hogy a cloud gaming-nél érezhetően alacsonyabb a mérhető input lag, tehát a gép által végzett számítások és azok eredményének monitorra kerüléséhez szükséges idő, mivel a cloud szerver "olyan gyorsan tud tekerni" és a megfelelő szélessávú, legalább 20 Mbit/s nettel már elég szép sebességű FullHD képet is tudnak közvetíteni...vicc elgondolni, hogyha megvesszük a 120-140e Ft-os csúcsvideokarit, lassabban jutnak el az általa kiszámított eredmények a monitorunkig, mintha egy amcsi szerverről jönne ugyanaz, egy fél világot áthidalva az interneten keresztül...elég hihetetlen, de Carmack bácsi nem a hazugságairól híres. Ezt megjegyeztem, mivel előtte-utána olyan dolgokról beszélt hosszasan, hogy nem az angol nyelvtudásom miatt nem értettem, hanem zokni voltam a szakmai nyelvéhez...szóval ez a sikerélmény megmaradt máig.
  • kifli
    #80185
    nemigazán értem, hogy jön ide, de valószínűleg nagy lesz a gépigénye igen...
    Bár a videókat elnézve, nem lesz akkora ugrás azért...
  • arty
    #80184
    tökmindegy, mivel MINDENEN szaggat majd az első pár évben :)

    a második megy már valamin jól? 2db gtx690en?