90029
  • arty
    #82320
    nagyon egyszerű a dolog, valami jól reprodukálható képet screenshotolj le (FRAPS) és mivel nemsokára jön az NV, lőhetsz arról is egy képet mellé

    az amdnek szebb a képe, az a melegebb színek miatt van, azt pláne nem vesszük figyelembe :))
  • arty
    #82319
    mert elsősorban nvidiás a kód? (régebben ugye nv cím volt mindkettő)
  • Her Laca
    #82318
    Mondom,hogy meghajlok a "véleményetek" előtt:)
    Ki vagyok én ,hogy észleljek kardinális különbségeket:)
    Lévén lehetetlen szerinted is ,így maradjunk a te általad preferált megfogalmazásnál:)

    Halkan teszem hozzá,hogy az utóbbi években jóformán CSAK! a legfelső kategóriás NV volt a gépemben ,és lévén megszoktam egy látványvilágot (ami persze lehetetlen) osztán csak szembe tűnik ha ugyanabban a gaméban máshogy törnek ,esnek dolgok. Tudom tudom ez marhaság:)Azt se vehetem észre amikor az AMD VGA szebb ,jobb ,pedig istenuccse van olyan is,de az is lehetetlen ezekszerint. Na témát részemről befejezem. Engem mondjuk hótra nem érdekel, nektek mi a véleményetek evvel kapcsolatban:)
  • Solt
    #82317
    Miért? AMD-ről megy a vita... nincs anyázás, nincs személyeskedés. Mi ezzel a gond?
  • Solt
    #82316
    Hiába próbálkozol, VAN összehasonlítási alapon. A latency tesztek kerek perec azt mutatják meg, hogy táblázatban kimutatható különbség van, DE ezt játék közben nem veszed észre. FŐLEG, ha vsync-t használsz, és úgy állítod be a játékot, hogy meglegyen a 60fps. A microlag, és ez a táblázatban kimutatható latency lufi nem ugyanaz egészen! A microlag fix 60fps esetén is jelentkező probléma, míg ez a latency lufi akkor igazán kimutatható, amikor nincs vsync, az fps pedig össze-vissza ugrál ki tudja honnan-hova.

    A linkelt vakteszttel az a gond, hogy lényegi információk hiányoznak. Pontosan melyik játék, milyen beállítás, milyen verzió, hányan próbálták, milyen arányok alapján jöttek ki az eredmények, stb! Fél perc alatt beállítom neked úgy a játékokat, hogy az egyik gépen be-be esik 60 alá az fps, ezzel akadást okozva, a másikon meg fixen meglesz 60, és vaj sima lesz. Mindeközben az esetleges minimális grafikai különbséget meg nem veszed észre. Magyarul egy dokumentálatlan fos az egész.

    Az utolsó bekezdésben elismered azt, amit a vakteszthez írtam... bármikor beállítható úgy, hogy a kívánt eredmény szülessen. Idáig fejlesztőkről beszéltünk, most már a tesztoldalaknál tartunk. Az, hogy pénzelik őket, egy állítás a részedről... nem tudok hozzászólni. Minden oldalt nyilván nem lehet pénzelni, az átlagokból meg lehet következtetni...
  • IMYke2.0.0.0
    #82315
    Solten - kéne kicsit takarítani, szerintem...
  • Abu85
    #82314
    Hasonlítsd össze a HDAO és a HBAO képminőségét. Ég és föld. Link
    Szerinted az NV tehet arról, hogy a HDAO náluk hibásan fut? Mert csak az 1.04-es patch óta hibás, előtte furcsamód jó volt.
    A Sleeping Dogsban a piac legjobb AA technológiája van, azért tesztelünk vele, mert soha senki nem alkalmazott még ilyen jó kevert AA-t játékban. Szeretjük ezeket a technológiai előrelépéseket.
    A GRID2-ben ugyanaz lesz, mint a DiRT Showdownban. Nem az AMD-nek akarnak kedvezni, csak nem akarnak olyan rendert használni, ahol nem alkalmazhatók komplex felületek, nincs tradicionális MSAA és nehéz az átlátszóság megoldása. Nem mellesleg, amikor a CodeMasters nekifogott a forward+ technikának, akkor még arról szólt a fáma, hogy az új fejlesztésen compute hatékonysága igen jó lesz. Elárulom, hogy azon, hogy a Kepler ilyen lett a fejlesztők lepődtek meg a legjobban.
  • Borg
    #82313
    Pontosan tudod, hogy nem ez a lényeg. Ahogy a PH-n is elmondták már neked, a FarCry3-at lehet HBAO-val tesztelni az egyiken, és HDAO-val a másikon, lévén egyiknek ez, másiknak az kedvez. Vagy csak kikapcsolod mindkettőn az AO-t és kész. De akkor se lesz semmi, ha hibásan fut le NV-n a HDAO-val, ha ez az igazság, tudja meg a nép.
    Ez is olyan kérdés, minthogy minek kell sleeping dogssal meg sniper elite v2-vel tesztelni. Senkit nem érdekel, hogy melyikbe melyik cég milyen technológiát pénzelt bele. Szar, és elavult játékoknak nincs keresnivalója a tesztekben. Bár most hogy jön a GRID2, amibe már volt idejük AMD-nek kedvező technológiákat beépíteni, nyilván nem lesz szükség ezen játékok további tesztelésére :)
  • Abu85
    #82312
    Tehát, ha felvesszük az NV-n hibásan futó programokat a tesztsorba, akkor mi vagyunk a hibásak, de ha nem vesszük fel, akkor is. Értem. :)
  • Borg
    #82311
    Nem kell kimondanod, attól még pontosan ezt jelenti amit leírtál :)
    Ráadásul még értjük is, hogy miért nem mondod ki kerek perec...nincs ebben semmi meglepő, így kell megfogalmazni ahogy te tetted, és kész :)
  • Abu85
    #82310
    "még Abu is beismerte egyik másik hozzászólásában az AMD nyomását"

    Sosem mondtam ilyet. Azt mondtam, hogy az AMD nagyon akarja, hogy teszteljünk xy játékokat, mint például a Far Cry 3-at és mást, amelyekről tudják, hogy hibásan fut NV-n. Erre reflektáltam, hogy nem vagyok hajlandó tesztelni ezeket, mert tudom, hogy mire megy ki a játék.

    Az NV az új konzolok miatt nem invesztál a konzolportokba. Viszont a PC-s játékokra költenek, de csak azokra, amelyek konzolra nem jönnek. Az AMD azért invesztál a konzolportokba, hogy akkor is hozzák le a next-gen konzoljátékokat PC-re, ha esetleg csak AMD hardveren fut (ebből kitalálhatod, hogy az NV miért nem értékeli már a konzolportokat).
  • Borg
    #82309
    Nem ugyanarról beszélsz, amiről én. De ezt te is tudod.
    Ott vannak a frame latency tesztek kerek perec, semmi megkérdőjelezhető nincs azokban, pontosan mutták a problémát, ami érezhető microlagot okozott sokaknál, de főleg azok vették észre, akiknek váltás miatt ugyebár VAN összehasonlítási alapjuk - valami, amit itt szinte senki nem mondhat el magáról.


    Amúgy szerinted milyen sebből vérzik az a vakteszt? Ha már ezt így konkrétan ki tudod jelenteni... VAKTESZT... már a neve is elárulja, hogy szubjektív szemlélői tesztről van szó, amin ha 10ből 9 ember ugyanazt állapítja meg, akkor nehogy már elkezdd ellenkezőjét állítani, mert ez így komolytalan...


    Azt hogy az AMD nyomást gyakorol, szintén nem kell félremagyaráznod, te is érted. Pontosan tudod, hogy a tesztelő oldalakra írtam, hiszen ott konkrétan tudjuk, hogy próbálkoznak. És nem AMD logóval, ne röhögtess már...
    Miután minden játékban 1000 grafikai beállítás alkalmazható, meg mégegyszer ennyi driverből, egyáltalán nem megerőltető olyan tesztelési körülményeket teremteni, ami ennek vagy annak kedvez, nagyobb látványosság nélkül. De elég csak a cikk hangvételét figyelni, nem kell ahhoz hazudni, hogy sugalljon valamit ami nem igaz.
  • Borg
    #82308
    Már hogyne lenne törvényszerű? Hiszen a GCN kurvárainnovatívelőremutatótirectx11.1234 technológia. Szóval akkor miért is nem?
  • arty
    #82307
    " Az nv meg szépen felszáll majd a vonatra kiforrott technikával, amikor tényleg szükségessé válik a verseny szempontjából. Na vajon melyik a helyénvaló pénzügyi stratégia, amikor amúgy is szűkül a piac, és egyre nehezebb nyereségesen résztvenni a PC hardverekben?"

    32bit színmélységű rendering
    t&l
    sm3.0

    mi a francnak szállt fel ezekre a vonatokra az nvidia, amikor még reálisan egyiket sem lehetett kihasználni?
    jahogy az innovácio csak akkor bátoritandó, ha a zöld oldal végzi?

    te beszélsz, amikor véded a védhetetlent - az antiinnovativ, pécés játékplatformot szarráforgácsoló (fizix) céget, mindenáron.
  • Solt
    #82306
    No azért van ám itt csúsztatás bőven! :)

    "mint amikor abunak mondták a microlagot, olyanok, akik radeonról váltottak geforcera, nem hitte el"

    A microlag VGA független! Ha megnézed a topikját PH-n, akkor látható, hogy mind az NV-s, mind az AMD-s júzerek panaszkodnak rá, sokan váltottak is egyikről a másikra, de nem hozott javulást. Mivel 99%, hogy a microlag VSYNC gond, ezért ilyen esetekben nagy valószínűséggel a programozással van a gond, és sok függ az adott játéktól.

    "Aztán mikor nagyobb tesztoldalak is lehozták ugyanezt az eredményt, még akkor is csak a mellébeszélés ment. Az AMD aztán le is nyilatkozta a probléma létezését, még akkor is csak a duma ment,"

    Microlagot illetően semmiféle eredmények nem születtek... amire te gondolsz, az a latency kérdése, de ahány tesztet láttunk erről, mind megkérdőjelezhető eljárással készült! Reagálniuk meg nyilván kellett rá, hiszen tele volt a net ezekkel a megkérdőjelezhető eredményekkel.

    A latency különbség az NV javára létező jelenség volt abban a pár játékban amit kiragadtak, DE ezek pusztán más beállításokkal (vsync, fps fix) is kezelhetőek lettek volna, plusz a jó részük a grafikonon kívül nem volt észlelhető. Magyarul lényegtelen volt, de azért negatív kampányra kiváló...

    "Aztán mikor az AMD bevásárolt a farcry3-ba, meg a crysis2-be, és mégis jobban futottak geforceon, akkor csak a mellébeszélés ment, meg a GCN így meg úgy előremutató, directx így meg úgy..."

    Na most akkor ehhez képest nézzük a tényeket! :) Az én ismereteim szerint, mindkét játék fejlesztése javában zajlott már NV-re, sőt a végéhez közeledett, amikor átpártoltak az AMD-hez. Ennek az okáról konkrétumot nem lehet tudni, de az eddigi gyakorlatot tekintve annak van a legkisebb esélye, hogy az AMD bárhová is bevásárolja magát... főleg nem olyan helyre, ahova már az NV bekopogtatott a bőröndkéjével.

    Annak fényében, hogy a fejlesztés java része NV-re zajlott, az lett volna a meglepő, ha nem az NV kártyákon megy jobban!

    "Most mikor vakteszten is megbukott a Crossfire microlaggal, és az AMD is bejelentette már, hogy opcióként berakják a nyáron az nvidia féle megközelítést a driverbe, akkor is kuss van."

    Az elvakultak szerint legalábbis megbukott... az ilyen vaktesztek, főleg az amely pár napja linkelve lett, arra jók, hogy a hívőknek mannát szolgáltasson. Rengeteg sebből vérzik, de, ha egy ilyen neked elég arra, hogy megállapításokat tegyél, lelked rajta.

    Biztos tudod, hogy nekem volt egy HD6990-m... én kizárólag vsync használatával játszom. Ha találkoztam microlaggal, például FC2, akkor az megoldható volt, és kivétel nélkül vsync okozta, ami ugyebár a programozó sara. Na most vsync on, fix 60 fps, és minden játék gyönyörűen vaj simán gördült, semmiféle akadás nem jelentkezett. Tán még a táblázataim is megvannak erről... ( jóval régebbről, mint ahogy bejött ez a latency mizéria )

    Vannak hibák a CF rendszerekkel, de, ha ezek a hibák az AMD sarai, azok a tapasztalataim szerint megoldásra kerülnek. Ellentétben egy DICE-vel, akiknek az AFR bugja miatt szarakodik az egér a BF3-ban CF esetén. Lehetne még sorolni, de tekintettel arra, hogy a programozók sem feszülnek meg a CF/SLI sikerességért, én jelenleg nem ajánlom senkinek.

    "Ez a fizikszes téma is pont ugyanilyen rágógumi csak itt. Senkit nem érdekel a fiziksz, még nvidiások között se nagyon, de piros szemellenzővel annál jobb gumicsont :) Most az AMD hordja talicskával a pénzt a fejlesztőknek, meg a tesztoldalaknak (nem kell messzire menni, még Abu is beismerte egyik másik hozzászólásában az AMD nyomását), most már hirtelen az is le lesz tagadva, hogy az nvidiát ugyanezért utálták meg pár éve :D"

    Az, hogy az AMD nyomást gyakorol, az nem azt jelenti, hogy talicskával hordja a pénzt, hanem azt, hogy ingyen a rendelkezésre bocsájt fejlesztéseket, de cserébe AMD logót kér. Ezek a fejlesztések nyilván valamivel jobban mennek AMD-n, de nem kizárólagosságot jelent, mint az NV-s pisix. Azért van itt egy "kis" különbség.

    Hogy melyik a korrektebb eljárás, szerintem teljesen egyértelmű...
  • V43 1105
    #82305
  • arty
    #82304
    crysis3/fc3-ba az amd "későn" kapcsolodott be, joformán a kuponozásra "futotta".

    egyébként sem törvényszerű, hogy a logós kártyán fut jobban a logós játék (lásd még nvidia és metro)
  • arty
    #82303
    emlitettél valamit, ami egy marhaság (hetekre visszamenőleg emlékszel a pixelek elhelyezkedésére)

    ugyankérlek....
  • IMYke2.0.0.0
    #82302
    2 slotos, 225 mm hosszú, 115 mm széles, 29 mm magas.
  • Borg
    #82301
    Olyan mint amikor abunak mondták a microlagot, olyanok, akik radeonról váltottak geforcera, nem hitte el. Aztán mikor nagyobb tesztoldalak is lehozták ugyanezt az eredményt, még akkor is csak a mellébeszélés ment. Az AMD aztán le is nyilatkozta a probléma létezését, még akkor is csak a duma ment, pedig egyszerűen csak nem foglalkoztak soha a kérdéssel, mert fontosabb volt max fps-ben megverni az nvidiát (végülis 2 év alatt sikerült is nekik néhol) Aztán mikor az AMD bevásárolt a farcry3-ba, meg a crysis2-be, és mégis jobban futottak geforceon, akkor csak a mellébeszélés ment, meg a GCN így meg úgy előremutató, directx így meg úgy... Most mikor vakteszten is megbukott a Crossfire microlaggal, és az AMD is bejelentette már, hogy opcióként berakják a nyáron az nvidia féle megközelítést a driverbe, akkor is kuss van.


    Ez a fizikszes téma is pont ugyanilyen rágógumi csak itt. Senkit nem érdekel a fiziksz, még nvidiások között se nagyon, de piros szemellenzővel annál jobb gumicsont :) Most az AMD hordja talicskával a pénzt a fejlesztőknek, meg a tesztoldalaknak (nem kell messzire menni, még Abu is beismerte egyik másik hozzászólásában az AMD nyomását), most már hirtelen az is le lesz tagadva, hogy az nvidiát ugyanezért utálták meg pár éve :D


    Egyik 19, a másik egy híján húsz. De a legizzadtságszagúbb az, amikor az nvidia piaci szereplését próbálják lehúzni az amd-hez képest, holott stratégiaila az amd még mindig nem kötheti meg a cipőfűzőjüket se. 2 éve kotlanak egy állítólag előremutató technológián, amiből csak nem bírják azt a fölényt kihozni, amit habzó szájjal reklámoznak. Az nv meg szépen felszáll majd a vonatra kiforrott technikával, amikor tényleg szükségessé válik a verseny szempontjából. Na vajon melyik a helyénvaló pénzügyi stratégia, amikor amúgy is szűkül a piac, és egyre nehezebb nyereségesen résztvenni a PC hardverekben?
  • V43 1105
    #82300
    IMYke..! :)

    Ehhez a kártyához, link tudnál nekem mondani egy hosszúságot ?
  • Her Laca
    #82299
    ÉN?? Kikérem magamnak:)
    Említettem valamit ,erre nekem esik a sok szakértő ,hogy az nem lehet.
    Én nem vitatkozom. Ha nem lehet ,hát nem lehet. Szerintük.Lévén az utóbbi időben a környékükön nem fordult meg olyan hardver amivel ezt láthatnák,így nincs mit tennem el kell fogadnom az érvelésüket.
    Egyszer arról megy a véleményezés,hogy a pisix egy szart sem érő valami,másszor meg ,hogy szemetek mert csak egy féle hardverrel látható,pedig azért csak megtekintenék.
    Én már nem tudok ezen kiigazodni. Mindenki magánügye mit gondol.
  • arty
    #82297
    ahoz, hogy te több hétre visszamenlőeg emlékezz különbségekre, drámai mértékűeknek kellene lenniük :)

    ahogy írtam, ezt soha sehol nem támasztják alá a képminőség összehasonlító tesztek.
    bizonyára PONT mindig olyan játékot néznek, amit te NEM - és fordítva :D
  • Solten
    #82296
    ?
  • Her Laca
    #82295
    Ahogyaz AMD -s is, ezek szerint.
  • Solten
    #82294
    Mindenesetre lathatolag mukodik az nvidia-marketing...
  • Her Laca
    #82293
    Igazad van!!!!
    Hogy én mekkora marha vagyok ,persze ,hogy te jobban tudod mi tűnik nekem fel vagy sem:) Ezentúl mindig meg is kérdezlek ,hogy szabad e észrevennem valamit ,mert lehet ,hogy lehetetlen szerinted és akkor majd én ahhoz idomulok .
    Hiszen te aztán biztosan tudod miről is beszélek ,ezt a ficsőrt te ismered ,nap mint nap találkozol vele stb:)
    Amúgy hogy sértődnék én meg:) Ne viccelj már.
  • IMYke2.0.0.0
    #82292
    Terelsz...
    Nincs két géped egymás mellett. Nincs két különböző VGA-val felszerelt 2 géped egymás mellett.
    Emellett, hetekkel, de inkább hónapokkal később nézel rá másik VGA-val a játékra, és pusztán az emlékeidre alapozol véleményalkotás közben.
    Placebo.
    Besértődhetsz.
  • Her Laca
    #82291
    Jó hogy Hozzátetted a szerintem et. Lévén sem vak sem idióta nem vagyok így engedte essék már meg hogy észleljem a különbségeket. Nem kell hozzá ám különösebb tehetség.
  • arty
    #82290
    néha itt-ott feltünik image comparison a két vgaról, nemigazán látni különbséget (bezzeg ha intel is van, akkor látni az mekkora f*s :D )
  • Blum
    #82289
    OFF: Megujult a techpowerup,szerintem fasza lett :)
  • IMYke2.0.0.0
    #82288
    Két géped van?
    Egy Radeonos és egy GeForce-os egymás mellett?
    Mert csak Így látható a különbség.
    Hetekkel, hónapokkal később váltogatva a VGA-kat placebo effektusról beszélhetünk, meg az emlékek jótékony/kártékony felhőjéről.
    Szerintem.
  • Her Laca
    #82287
    Néha azért ránézek erre arra és feltűnik.
  • arty
    #82286
    de te azokkal nem játszol, azt mondtad!! :D
  • Her Laca
    #82285
    Mindamellett!! Pl a CLOD ban a égvédelmi pamacsok szebbek és tovább maradnak a levegőben GTX en. Nem tudom az okát jelezném,csak mint érdekesség említem. Viszont a talaj szebb a radeonon.
  • Her Laca
    #82284
    Most én nem a CLOD ról beszélek:)) Azért van a gépen még egy két játék és azokat nem a Nagy tesók készítették:XD
  • Solten
    #82283
    Az altalad preferalt ruszki jatekokban amugy nincs ilyen ficsor.
  • Her Laca
    #82282
    Tudod mi a röhej. Én a pisixet eddig nem is nagyon néztem,de komolyan mondom,hogy hiányzik. Van azért különbség,és ezt most nem azért mondom ,hogy reklámozzam.
  • Solten
    #82281
    Borg teved, nem azert utaltak meg az Nvidiat mert megvett par fejlesztot. Azert mert a fizikszes marhasagat csak sajat kartyain engedelyezte. Bar ez zsakutca, a zart szabvany elbukik ha egy ceg all mogotte, csak ido kerdese.
  • arty
    #82280
    "Szerintem az AMD-nél pont most jön az az időszak, amiért sokan megutálták az NV-t.."

    ennek hol látod jeleit?
    csak mert amd logóval indul egy játék, az max annyit jelent, hogy nem kell még egy 680at beraknod a mostani mellé ...