43
  • Borg
    #43
    Amúgy a control center témával egytértek. Az új AI funkció lényegében semmi más, mint az nVIDIA tavalyi csalása, csak éppen 3 igen fontos különbséggel:
    -nincs látható képminőség veszteség
    -be van jelentve (tudunk róla)
    -KIKAPCSOLHATÓ.

    Mindezek mellett a CC egy hulladék lett, szerintem ki sem szabadott volna adniuk még. Ez már nem az első CC-s catalyst, és még mindig sok a gond vele. (én magam inkább Omegát raktam most fel). Magával a driverrel viszont semmi gond.
  • Borg
    #42
    Ez pölö egy érdekes dolog, nemtom láttad e már:

    "Here's a demo that does dynamic branching, without the need for pixel shader 3.0, and still receives the huge performance boost that pixel shader 3.0 dynamic branching supposedly gives when utilized in a similar fashion."

    Beyond 3D

    Persze, ahogy lentebb ott le is írják, a devek valszeg inkább az SM3-hoz nyúlnak majd, mint az ilyen fajta speciális 2.0 kódokhoz. Ez csak annyit mutat meg, az előbbihez képest az utóbbi azért nincs elmaradva különösebben.

    Szal, az SM2.0 nem fog úgy teljesíteni és kinézni mint a 3, de nem azért mert nem képes rá, hanem azért, mert a fejlesztőknek egyszerűbb a 3.0-val megvalósítani már a dolgokat. Ezt bizonyítja ez a demo is.
  • dez
    #41
    Alapból túl magasra van véve, de lehet szabályozni (10-es a legjobb, amelyik a nagyjából leggyengébb).
  • janos666 #40
    Láttam a Far Cray HDR tesztet, képeket. Nekem is nagyon tetszik ez a HDR már a HL2 videó (háztetős) óta. Meglepően sokat jelen ahhoz képest mennyi a hardverigénye. (a Far Cry-nál elvileg ugye 4-5%). Főleg ha majd rendesen használják, mert nekem a Far Cry erősen techdemo játék, vagyis túlnomatnak mindent hogy megmutassák viszi a motor...
  • dez
    #39
    (Ja, az elsőhöz még, hogy azért most elég "érdekes" dolgok történnek az új Control Centerben..)
  • dez
    #38
    Hát, ez a csalás dolog kicsit túl van sarkítva. Pl. a csillag rajzolató AF szűrést az ATI találta ki, és többekk szerint is észrevehető néha a dolog. Ez eleve egy kis előnyt jelentett az ATI-nak. (A 6-osban az NV is átvette, sőt, DX alap dolog lett.) Meg valaki itt azt írta nemrég, hogy a mai driverek úgy hoznak ki jobb teljesítményt az FX-ből, hogy annak semmilyen látható hátránya nincs. Csak ez ma már senkit sem érdekel.
    Független shader programozók szerint van néhány olyan speciális effekt, amit csak SM3.0-val lehet megvalósítani (élethűbb fénytörés, és egyéb raytracing-szerű megoldások, stb.) - bár ezekkel egyelőre valószínűleg inkább csak techdemókban lehet találkozni (az egyik kevésbé ismert gyártónak vannak is ilyen SM3.0 demói), mert a mai kártyák még nem elég gyorsak ahhoz, hogy ilyenekkel legyen tele a játék. De az igazán valósághű bumpmapping is SM3.0 feature.
    Persze ettől még az időtállóság dolog is kicsit túl van színezve, mert a legtöbben jövőre úgyis lecserélik a kártyáikat. Bár vannak, akik inkább 2 évente cserélnek. (Én mindenesetre nem sokat játszom, inkább techdemókkat nézegetek, és majd eljátszogatok pl. az NV letölthető shader-editorjával.)
  • Borg
    #37
    Elterelhetjük persze időtállósági kérdésnek az egészet, de anno korántsem ez volt a fő érv ez vagy az ellen/mellett. Az R300 bő fél évvel az FX-ek megjelenése előtt a piacon volt, és még úgy is bőven többet tudott náluk. Illetve amit tudott, azt sokkal gyorsabban. Tény és való, hogy nem volt ps2.0-s játék a piacon hosszú ideig, mint ahogy most ps3.0-s sem lesz. Az csak egy komponense volt az FX-ek bukásának, hogy a jövőjük bizonytalan volt a gyenge PS2.0 miatt. A másik, és legütősebb érv az nVIDIA csaló magatartása volt, hogy ütőképes termék helyett a driverbe épített csalásokkal próbálta még a DX8-as teljesítményét is az R300-éval egy szintre hozni. Az FX-ek egyes egyedül az OpenGL API alatt voltak egyértelmű előnyei, és ott is csak a komolyabb driver támogatás miatt. Szal ezt a témát már ne keverjük ide, mert egyátalán nem ugyanaz a helyzet.
    A GeForce6 család igenis ütős lett, de valahol természetes, hogy az emberek többsége szkeptikus szemmel nézni az nvidia tevékenységét azokután, ahogy tavaly elásta magát. Ez te sem vitathatod.
    Ezenkívül, azt sem mondta senki ha jól emlékszem, hogy az X800 sorozat bármennyivel is időtállóbb lenne. Hol volt ilyen? Sehol. Na látod! Attól, hogy kijelentjük, hogy az SM3-ra a felhasználóknak, tehát a VÁSÁRLÓKNAK nincs szükségük sem jelenleg, sem a közeljövőben, még nem mondtuk ki azt, hogy jobban megéri X800-at venni.
    Másrészt, azért tegyük hozzá, hogy az SM3.0 korántsem olyan esszenciális technológia, mint a 2.0 volt anno. Mindössze optimalizálásokat, könnyebb programozhatóságot, és így némi teljesítménytöbbletet ígér, korántsem akkora generációváltást, mint a 2.0. Magyarán, noha tény, hogy hiányozni fog az X800-akról jövő évben a feature, egyátalán nem létfontosságú hiányosságról lesz szó.

    Ha a zárójeles megjegyzéseddel netán Cvd-re utalsz, ő már régen bebizonyította, hogy nem érdemes leállni vele vitatkozni. Érvelni nem tud, csak mellébeszéléssel kontrázni. Most is totál más síkra próbálja terelni azt amiről szó van, ezért nem is foglalkozok vele. Anno már az FX-ek megjelenése előtt mikor megvolt a specifikációjuk tudni lehetett, hogy simán bebuknak, de ő még akkor is a hülyeségeit szajkózta, hogy 2x gyorsabb lesz az R300-nál, amikor az első tesztek bebizonyították az ellenkezőjét... Akkor is ugyanezt csinálta már, hogy személyeskedéssel próbált visszavágni a felsorolt tényekre. Szal őt hagyjuk ki ebből, nálam nincs hitele a mondandójának.
  • Cvd
    #36
    Gondolom nem tűnt fel hogy nem a cikkre reagáltam hanem a hozzászólásodra. Talán nem nekem kellene kinyitnom a szemem. Bagatelizálhatod az ATI-k alacsonyabb fogyását, de tény hogy sokkal jobban fogynak az nV-k a felső szegmensben, és hasonló vátható a középmezőnyben is. Anno az ATI is nagyot szakított az R300-zal, holott semmi gyakorlati haszna nem volt a DX9-nek rajta.
    Arról meg végképp ne beszéljünk hogy ki mond hülyeséget aztán nem ismeri be hanem még rátesz. Emlékszem még a DOOM3 első videobemutatójára Carmackkal Gef3-on ami szerinted nem létezik (még mindig fent van a neten!), vagy az ugyancsak nem létező EV6-os Alpha procira, hogy többet ne is említsek. Valamint ideje lenne leszokni arról hogy az embert támadod, a hozzászólása helyett, még mindig gyerekes.
    Lehet törölni.
  • dez
    #35
    Na jó, mondjuk a 9700 időtállóságához az is kellett, hogy gyenge volt az FX PS2.0-ban, miközben nem lehet tudni, mennyire lesz ütős az ATI 2005-ös generációja.
  • dez
    #34
    Áhh, egyébként felesleges erről vitázni. Úgysem ismerik el, egyszerűbb, hogy a kedves olvasó a hülye. Pedig a többség nem az, látja a nyilvánvalót, csak nem teszi szóvá, mert minek (bár reméli, hogy van valami értelmes célja a dolognak).
  • dez
    #33
    Tökéletesen igaza van Cvd-nek. Tavaly volt a piacon vagy 2 program, ami SM2.0 volt (meg a "riogatás", hogy hú mindjárt megjelenik a HL2!), nem számítva az ATI techdemóit. Mégis "mindenki" azon "kesergett", hogy hú, nem időtálló az FX. Hát most kb. annyira időtálló az X sorozat az ATI-nál. (A korábbi programok az FX-en is jól futnak, mint a maiak az X-en.) Az NV 6-os sorozata meg olyan, mint korábban a 9700-as.

    De a ti hozzáállásotok viszont egészen más... Ez már az elfogultság krónikus esete, ha már észre sem veszitek (vagy csak úgy tesztek, ami meg egy másik eset). Ezzel lealacsonyítjátok magatokat. (Persze fogalmam sincs, miért aggódok én itt az SG miatt?)

    (Arról nem beszélve, hogy ez már nagyon komoly, hogy aki nektek ellentmond, az kapásból le van hülyézve...)
  • dez
    #32
    "Hiányolni senki nem fogja az SM3.0-t jövő év közepéig"

    És a fejlesztők??? Hogy fejlesztenének vas nélkül? Szoftverrenderrel 1fps-sel (ha egyátalán működik úgy)? (Nem beszélve arró, hogy az elkövetkező honapokban sorra jelennek majd meg kisebb-nagyobb programok SM3.0 támogatással.)
  • Borg
    #31
    Bár már egyszer megfogadtam, hogy csak értelmes vitapartnerekkel állok le, azért kiváncsi lennék, hogy egyátalán elolvastad-e a fenti hírt?
    Ha netán így volt, idézd már be azt részt, ami szerinted valótlan állítás, következtetés stb.
    Mert pl azt sem állította senki, hogy ebben az átmeneti időszakban az ATI ne sínylené meg az SM3 hiányát. (uristem 3darabbal kevesebb ATI kártya kel majd el, mert a nemlétező szoftvereket még nem támogatja...)
    Ezt is csak te szeretnéd hozzátenni a vitához, hogy méginkább atifannak állíthasd be a tényeket :/ Megint mondtál egy jó nagy hülyeséget, utána meg csak bizonygatod az igazadat eltakart szemekkel...
  • Cvd
    #30
    Halkan jegyzem meg hogy az nVidia is azt mondta a DX9-re Az R300 idején hogy egyenlőre felesleges, le is maradtak benne rendesen. Mivel most kezd csak szükség lenni rá igazán, akkor anno az nVidia is jól csinálta ugye? Ez is ugyanaz a marha egyszerű folyamat, akkor mégis szénné fikáztad az nVidiát. Pedig háttér ugyanaz, az adott cég csak később tudta prezentálni a hardware-t, és kitaláltak valami kifogást. Csak míg ez az nVidia részéről marketinfogás volt, az ATI viszont tudja a nagy igazságot, legalábbis szerinted. Szerintem meg igenis megsínyli az ATI az SM3.0 hiányát, emiatt is miatt fogynak jobban az nV kártyái a felső szegmensben. Az ATI/nVidia ellentétet meg éppen az generálja hogy elfogultak a cikkek az ATI irányába, és bárki meg meri ezt jegyezni, az máris nV fan, nem ért hozzá, és elvakította a marketing.
  • Borg
    #29
    Jo, akkor szerinted mondjuk ki kerek perec, hogy az nvidia féle SM3.0 implementációból csak az ATI húzott hasznot?:DDD Mert ez az igazság.
    Hiányolni senki nem fogja az SM3.0-t jövő év közepéig, addigra meg kijön az ATI is új hardverrel, ami ráadául már modernebb formában, gyorsabban valósítja meg.
    Na ilyenkor mi van? Az nVIDIA belerakta a geforce6-ba a technológiát, de minek? Attól hogy fejleszteni tudnak rá, neki nem lesz pénze belőle. Majd ha fejlesztettek rá, és az ATI hardvere egyszercsak jobban valósítja meg, na majd ott meg az ATI-nak lesz. Nem véletlenül nyilatkozta Orton még az elején, hogy NEM ÉRTE MEG NEKIK egyelőre az sm3-ba invesztálni. Április óta mindenhol ezt mondják, hogy 1 év mire tényleg szükség lesz rá. Addigra meg lesz ATI oldalról is SM3. Szal akkor most ki csinálta jól?
    Ezek marha egyszerűen átlátható folyamatok, nemtom miért kell neked mindenből atifan.vs.nvfan dolgot faragni.
  • Borg
    #28
    Két dolog.
    Nézd meg a legfelső hírt. Nvidia fényezés. Na, ilyenkor hol van a Mr. Főkritikus, aki minden tagmondaot órákig elemez, hogy beleköthessen valamibe? ...
    A másik meg az SLI, egyszerűen baromság amit irsz. Számtalan hír volt az SLI-ről, az azt támogató alaplapokról, 3dmark eredményről, ÉS az alienware, valamint az ati saját technológiájáról is. Ez megint csak a TE egyéni érzelmi világod, hogy még a nyilvánvaló dolgokból is nvidia fikázást olvasol ki.
  • Borg
    #27
    Ez így van, de ha jól látom sehol sem szóltam le a farcryt, sőt, azt sem vitattam, hogy állatul néz ki HDR esetén :) (see Xbitlabs teszt)
  • dez
    #26
    Arról nem is beszélve, hogy egy még nem létező cuccra nem lehet fejleszteni... Mire az ATI kihozza a SM3.0-s hardverét, addigra le is telik az a bizonyos év, tehát úgymond "beleül a készbe".
  • dez
    #25
    Aha. És ezt te el is hiszed? Számtalan példa volt, és többen is szóvá tették már, hogy erősen kivételeztek az ATI-val. ATI-ról többnyire csak pozitívumokat írtok, NV-ről inkább csak negatívumokat. Ha véletlenül írtok valami pozitívat, a hír fele arról szól, hogy ilyet az ATI is tud, vagy majd fog tudni, vagy ha nem, akkor az egy felesleges dolog, stb.) Állandóan bizonygatjátok, hogy a SM3.0 szinte értelmetlen, az SLI-ről is hallgattatok egy ideig, csak akkor beszéltetek róla, amikor már az Alienware jóvoltából ATI-kkal is megvalósítható lett a dolog. És még hosszan lehetne folytatni.
  • tomsh
    #24
    Az, hogy perpill mennyire használatos a játékokban (PS3) a pontencionális vevőkört szerintem nem nagyon érdekli. A fontos számukra, hogy mindezeket már tudja a kártya. Ha már méregdrága VGA-ba "fekteti" pénzét a halandó, akkor jobb esetben megnézi az aktuális teszteket, paramétereket, tudást.
    És a vásárlásnál itt jön a képbe, kizárólagosan csak az nVidia tudó PS 3.0, illetve a többi nV fricsőr, attól függetlenül, hogy jelenleg mely' játékok használják ezeket az extrákat, és melyek nem.
    Ami elbizonytalaníthatja a vevőkört az a jó időzítés, hogy már mégsem PS3.0 az a Ps 3.0, meg WHQL teszten való elbukás, stb... Ami a whql-t illeti talán igaz is lehet.
    Egyébként a Whql-ről valahol a paprika botrány jut eszembe. Igaz nem whql billag volt a paprikán, csak a „kiváló magyar termék” és a „hungaricum” névjegy...
  • janos666 #23
    Azért tegyük hozzá hogy pl emlékszeim szerint régebben elmondásod szeritn te is igencsak kedveleted és népszerű, populáris játéknak nevezted a Far Cray-t ami most elsőként megkapta azt a részleges SM 3.0 támogatást. (márha ez a szóbanforgó játék ; 2.0-t is csak részlegesen használ, azért van amire bőven elég az 1.1;1.3;1.4 is...)
  • arty
    #22
    ki is derült abbol az egyből, h sajnos az a "fullos" dx9 implementácio szépen lassit :(

    semmi sincsen ingyen ...
  • Borg
    #21
    Aha. Szerintem egy kicsit el vagy tévedve, ami a hírek értelmezését illeti.
    Valahol kiszivárognak tények, és azt lehozza X oldal logikus következtetésekkel, és kapcsolódó információkkal körítve.
    Ez a dolog nem a hírírók, és főleg nem a hírFORDíTÓK költészetéről szól. Mert ugye itthon javarészt csak utóbbi van.
    A hír-portálok sosem közölnek kacsákat, egyéni kitalációkat, csak és kizárólag arra építenek, ami információkat máshonnan össze lehet szedni.

    Ez megintcsak oda üt vissza, hogy NEKED személy szerint van egy érzelmi beállítottságod, aminek a tükrében ez vagy az a tény másképp csapódik le. Ha éppen nVIDIA fényezés van benne, azt pozitiv szemmel olvasod, ha ATI fényezés azt negatívval. Ez a te egyéni véleményed, de a hírben sehol sincs pl olyan leírva, hogy az nVIDIA mekkora köcsög, mert ígymegúgy. Aki ért hozzá, az a tényekből le tud vonni logikus következtetéseket, amelyek korántsem légbőlkapottak, vagy szándékos terelések.

    A hírhez kapcsolódóan - az OEM gyártóknak, rendszerépítőknek különösen fontos a WHQL minősítés, mert a saját hírnevükkel játszanak. Ők komplett, működő gépeket adnak el a usereknek, ahol nincs helye semmilyen szoftverproblémának sem. Szóval a PS3.0 WHQL teszten való elbukása igenis elegendő ok ahhoz, hogy pölö a dell, vagy a hp ne szereljen csúcsgépeket ilyen kártyákkal - még ha csak átmenetileg is.
    A következő logikus gondolat ezután persze az, amit te is felvetettél, hogy az egész elodázza a PS3.0 eltejedését addig, amig a konkurenciának is lesz erre képes hardvere. De ettől még nem a következtetés okozza a tényeket. Nem a lekvár teszi el a nagymamát... Az előbbi tény, az utóbbi csak logikus folytatás. Persze, mivel a PS 3.0 elterjedését úgysem saccolta senki 1 éven belülre, nem is értem valójában miféle "elterjedés" akadályozásáról van szó. 1, azaz 1 játék kapta meg eddig, a részleges támogatását.
  • dez
    #20
    És a jobbik eset, amit már írtam, hogy a piaci egyensúly elérésére és megtartására törekedtek. Mindegy, nem várok választ.
  • dez
    #19
    Ja, és mivel jópár site csinálja, miközben az szóban forgó cég úgy igazán nem szolgált rá a dologra (egy hibára több jó dolog jut, tehát pozitív a mérleg), elgondolkodik ez ember, hogy mi lehet ennek hátterében.
  • dez
    #18
    Az egy dolog, ha a cégek próbálnak fogást keresni a másikon, de egy másik dolog, ha egyes site-ok próbálnak "terelni", ellenszenvet (már-már gyűlöletet) gerjeszteni az egyik cég ellen (és mindíg csak ellene).
  • Borg
    #17
    "Viszont rokonszenvesebb lenne, ha a gyengébb háttérrel rendelkező gyártó a maga erejéből erősítené meg a piaci pozicióját (ami nem egyenlő a pillanatnyi sikerekkel)."

    Ez ugyan igaz az ATI-ra is, de sokkal inkább az nVIDIA-ra. Érdekes, amikor az nvidia féle dokumentumban állítottak hülyeségeket az ATI chipjeiről, akkor nem voltál ennyire felháborodva, hogy miért próbálják ilyen módszerekkel elbizonytalanítani a népet. (holott ez itt fent csak tényközlés, ellentétben a múltkori "kiszivárgott dokumentumokkal", ugye.)
  • arty
    #16
    egyet is értenék, az utolsó mondatodat kivéve, mert az erős tulzás ... semmiféle statisztikai adat nem állhat rendelkezésedre ennek kijelentéséhez :)
  • Borg
    #15
    A 9800pro-nál még az x800pro is kevesebbet eszik szal...
  • dez
    #14
    Ha abból indulunk ki, hogy valami értelmes célja van a dolognak, akkor az az, hogy segítsék a piaci egyensúly létrejöttét és fenntartását; mert ha az egyik gyártó kiesne a nyeregből, lelassulna a fejlődés, és az árak is inkább csak felfelé mennének. Viszont rokonszenvesebb lenne, ha a gyengébb háttérrel rendelkező gyártó a maga erejéből erősítené meg a piaci pozicióját (ami nem egyenlő a pillanatnyi sikerekkel).
  • tomsh
    #13
    Whql ide vagy oda, a lényeg, hogy a játékok mennek vele gond nélkül. Pl.a Far Cry v1.3, veryhigh-on, az összes szűrő maxon, HDR, Ps/vs 3.0-t aktiválva, full 3d displacement mappinggal megspékelve, gyorsan, hibamentesen, tűéles, fantasztikus látványt nyújtva fut, az nVidia 6800-al.

    Egyébként igazad lehet, savanyú a szőlő, megy a vevők elbizonytalanítása, gőzerővel. Nem jött be a ráncfelvarrás. Persze közben kiderült az is, hogy pl. a sima nV6800 kevesebbet eszik mint a 9800Pro, illetve a hűtőik is csendesek, és majd mindegyik példánynál működik a 16 pixel futószalag, és 6 vertex egység, és igen gyorsak...)
  • Akuma
    #12
    ha jól emléxem a 61.77 sem whql ;) de jó kötözködni :))) 61.76 whql van, már régen ezt használom és szerintem egy nagyon jól sikerült driver, mondjuk nemtudom mit nyujt geforce 6-os kártyákon, de az fx-emen nagyon jól megy
    61.77 meg néha fatális hibával összeomlott és bezáródott a program... valami olyasmi hibát adott, hogy (valami ilyesmi szövege volt) akarom e tájékoztatni róla a mikroszoftvért :)
  • janos666 #11
    45.xx könyékétől 61.77-ig azthiszem ne is volt sok WHQL, mégis megéltünk...
  • janos666 #10
    És az nVidia új tömörítése miért van errefelé elfelejtve ami szintén bekerült a Far Cray 1.3-ba ha már a 3Dc-t emlegetjük amit még semmi nem használ? Azthiszem valami V8V3?
  • Akuma
    #9
    Mindez idáig nem derűlt ki?? Mennyi WHQL driver jött már ki geforce 6-hoz?? Merem remélni, hogy ez csak ennek a verziónak a hibája... újabb vagy régebbi WHQL driverrel nincsenek, illetve nem lesznek ilyen problémák. Mellesleg sztem ez egy felfújt dolog, max nem kapja meg a WHQL minősítést és kész! Majd legközelebb megkapja.
  • arty
    #8
    :)

    sajnálatos. mi, felhasználók szivjuk meg ...
  • dez
    #7
    Az meg vicc, hogy ez a WHQL dolog befolyásolná a SM3.0 elterjedését... A cikk célja nyilvánvalóan a vevők elbizonytalanítása, és időhúzás, amíg megjelenik az ATI saját SM3.0 támogatása. Csak tudnám, mire jó ez? Ez már nem lehet pusztán a szerző saját személyes ügye.
  • Borg
    #6
    Csak érdekesség képpen, az utolsó mondatod eredetileg szerepelt ennek a hírnek a címében is.
  • dez
    #5
    "HDR és 3Dc technológiák támogatásához. Míg az előbbi az Industrial Light & Magic fejlesztése és így az nVIDIA GeForce 6 hardver kizárólagos sajátja, az utóbbi technológia az ATI Technologies innovációja, és így érthetően kizárólag az RADEON X700/X800 família támogatja."

    Hmm, tudtommal a HDR-hez egy bizonyos HW feature hiányzik (volt HDR korábban is az ATI kártyákon, de valami miatt nem felelt meg) - ha az meglesz, ATI-n is lesz támogatva a dolog. Nem tudok nem-HW okról.

    Viszont a 3Dc az ATI saját levédetett eljárása. (Mint ahogy levédette a "gamma-correction"-t, pontosabban gamma-adjustment-et is az antialiasing funkcióban.)
  • arty
    #4
    minden whql cikkhez odairom:

    volt olyan whql meghajtoja egy gyártonak (nvidia :D ) ahol a telepitéshez szükséges .inf nem volt része a csomagnak :D

    ennyit a tesztelésről. pénz beszél ...