Rónai György

Egyre több a gond a Microsoft WHQL minősítések körül

Újabb problémákra derült fény, a Microsoft WHQL driver minősítésével kapcsolatban. A legfrissebb meghajtó ami fennakadt a tesztelés során a legújabb nVIDIA ForceWare, a 66.81-es verzió. A Pixel Shader 3.0 alrendszer egyszerűen sehogy sem megy át a teszten.

A Microsoft Display Compatibility Test (DCT) egy olyan eljárás, amivel a grafikus kártyákat és a chipkészleteiket tesztelik, hogy megfelelnek-e a Windows XP és a Windows Server 2003 elvárásainak. A tesztben a DirectX 7, 8.1a, és 9.0c verziókra tesztelnek, hogy az adott meghajtó, és hardver megfelel-e a specifikációknak. Ez a DCT teszt szükséges ahhoz, hogy valamilyen driver megkapja a WHQL (Windows Hardware Quality Labs) minősítést, ami a gyártók, az OEM partnerek és a végfelhasználók oldaláról is megkövetelt dolog, hiszen az előnyei egyértelműek.

Technikailag a teszt minden lépésének meg kell felelni, azonban adódhatnak kivételek is, amikor valamilyen okból egy gyártó nem felel meg a tesztnek. A DCT legújabb verziója, az 5.2-es már igen komoly figyelmet szentel a videokártyák legfrissebb technológiáinak is. Így természetesen az ATI és az nVIDIA innovációit is tesztelik, ezek közül azonban mégsem megy át minden a próbán.

Ebben a konkrét esetben az nVIDIA féle Pixel Shader 3.0 technológia bukott meg, méghozzá a ForceWare 66.81 driver alatt 6800 Ultra és 6600GT hardvereken futtatva is. Persze ez nem egyedüli eset, hiszen idén már egyszer az ATI is belefutott egy hasonló csapdába, aholis a saját "geometry instancing" nevű technológiája bizonyult inkompatibilisnek a DCT 5.2-es verziójával, és így a Microsoft követelményeivel. Ebben az esetben, hogy az adott Catalyst mégis megkapja a WHQL minősítést, az ATI-nak le kellett tiltania az adott technológiát. Pontosabban az ATI alapból letiltotta ugyan, de Microsoft engedélyezte, hogy a Catalyst Control Panel segítségével a végfelhasználó bekapcsolhassa amikor akarja.

Az nVIDIA szóvivője szerint a cég hivatalos driverei át fognak menni a DCT 5.2 tesztjén, de hogy ezt hogyan és mikorra valósítják meg, arról nem esett szó. Érdekes módon az nVIDIA az nZone weboldalon keresztül jelenleg is WHQL minősített felirattal tette elérhetővé a ForceWare 66.81-es driverét. Martina Sourada, az nVIDIA szoftver certifikációs elnöke annyit tett hozzá, hogy éppen azon dolgoznak, hogy a teszten átment drivert közzétehessék a publikus weboldalakon, de időpontot erre nem tudott mondani. Elismerte azonban, hogy jelenleg is vannak még hibák a meghajtó kapcsán, amelyeket azonban a Microsoft már elnéz, vagy nem vesz figyelembe a minősítés során. Hogy az nVIDIA letiltja-e a technológiát, vagy ki-be kapcsolhatóvá teszi, vagy netán alapjaiban átdolgozza az ide vonatkozó részeit a meghajtónak egyelőre kétséges. Még egy opció is van - és ez a legvalószínűbb -, méghozzá az, hogy a Pixel Shader 3.0 alrendszernek csak a problémás komponenseit tiltják le, így tehát a driver máris átmegy majd a teszten, de a Pixel Shader 3.0 támogatás már nem lesz teljes.

A Pixel Shader 3.0 az nVIDIA fő érve, a saját GeForce 6 termékcsaládja mellett, azonban logikus, hogy ez a minősítési galiba nem éppen fog segíteni elterjedésében. Nemrég ráadásul az ATI-ról is kiszivárgott, hogy a következő generációs hardvere már támogatni fogja a technológiát, igaz, némileg modernebb formában. Noha a Microsoft nem követeli meg az nVIDIA-tól, hogy letiltsa a Pixel Shader 3.0-t a drivereiben, tény és való, hogy a megoldás egyes részeinek szoftveres és hardveres oldala nem teljesen kompatibilis egymással. Az nVIDIA természetesen állítja, hogy semmi probléma nem lesz a Pixel Shader 3.0 adoptációja kapcsán.

Az tehát egyelőre tisztázatlan, hogy a technológiának pontosan mely részeivel nincs kibékülve a Microsoft, azonban már csak a kétségek létezése is komoly akadályokat állít a technológia elterjedésének útjába. Ráadásul a grafikus megoldások gyártói egyre inkább eltérnek azoktól a szabványoktól, amelyeket a Microsoft annak érdekében fektetett le, hogy a végfelhasználó oldalán minden hardver minden szoftverrel tökéletesen fusson. Ugyan a Microsoft megengedte a cégeknek, hogy a Pixel és Vertex árnyalókból különböző verziókkal hozakodjanak elő, a cég továbbra is igen komolyan megköveteli hogy a szabványokat teljesítsék, és maximális kompatibilitás legyen az operációs rendszer és a szoftverek-hardverek között. A gyártók azonban ennél nagyobb szabadságra és flexibilitásra vágynak, magától értetődő marketing, és piaci részesedési okokból.

A legjobb példa erre a FarCry nevű népszerű FPS játék, amely nemrég kapott egy frissítést a HDR és 3Dc technológiák támogatásához. Míg az előbbi az Industrial Light & Magic fejlesztése és így az nVIDIA GeForce 6 hardver kizárólagos sajátja, az utóbbi technológia az ATI Technologies innovációja, és így érthetően kizárólag az RADEON X700/X800 família támogatja. Az egyik oldalon tehát ott áll Microsoft és persze mi magunk, azzal a jól felfogott érdekkel, hogy előbb-utóbb ne jussunk el arra a pontra, hogy egyik játék csak ezen a videokártyán, másik játék pedig csak a másik cég videokártyáján fut majd el. A másik oldalon pedig a videokártya gyártók saját érdeke áll, hogy kizárólagos, új technológiákkal fölényt szerezzenek a másik céggel szemben, egyre nagyobb szeletet kaparintva meg a piacból.

Az érdekes kérdés még talán az lehet a jövőre nézve, hogy a játékfejlesztő cégek melyik oldalra fognak állni, hiszen az ő szavuk is döntő ebben. Mert noha ha az adott cég logója és technológiája van mellékelve a játékhoz akkor a vállalat részéről igen komoly anyagi juttatásokban részesülnek, mégis az érdekeik sokkal inkább a Microsoft, illetve a végfelhasználók álláspontjához esnek közel.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Borg #43
    Amúgy a control center témával egytértek. Az új AI funkció lényegében semmi más, mint az nVIDIA tavalyi csalása, csak éppen 3 igen fontos különbséggel:
    -nincs látható képminőség veszteség
    -be van jelentve (tudunk róla)
    -KIKAPCSOLHATÓ.

    Mindezek mellett a CC egy hulladék lett, szerintem ki sem szabadott volna adniuk még. Ez már nem az első CC-s catalyst, és még mindig sok a gond vele. (én magam inkább Omegát raktam most fel). Magával a driverrel viszont semmi gond.
  • Borg #42
    Ez pölö egy érdekes dolog, nemtom láttad e már:

    "Here's a demo that does dynamic branching, without the need for pixel shader 3.0, and still receives the huge performance boost that pixel shader 3.0 dynamic branching supposedly gives when utilized in a similar fashion."

    Beyond 3D

    Persze, ahogy lentebb ott le is írják, a devek valszeg inkább az SM3-hoz nyúlnak majd, mint az ilyen fajta speciális 2.0 kódokhoz. Ez csak annyit mutat meg, az előbbihez képest az utóbbi azért nincs elmaradva különösebben.

    Szal, az SM2.0 nem fog úgy teljesíteni és kinézni mint a 3, de nem azért mert nem képes rá, hanem azért, mert a fejlesztőknek egyszerűbb a 3.0-val megvalósítani már a dolgokat. Ezt bizonyítja ez a demo is.
  • dez #41
    Alapból túl magasra van véve, de lehet szabályozni (10-es a legjobb, amelyik a nagyjából leggyengébb).
  • janos666 #40
    Láttam a Far Cray HDR tesztet, képeket. Nekem is nagyon tetszik ez a HDR már a HL2 videó (háztetős) óta. Meglepően sokat jelen ahhoz képest mennyi a hardverigénye. (a Far Cry-nál elvileg ugye 4-5%). Főleg ha majd rendesen használják, mert nekem a Far Cry erősen techdemo játék, vagyis túlnomatnak mindent hogy megmutassák viszi a motor...
  • dez #39
    (Ja, az elsőhöz még, hogy azért most elég "érdekes" dolgok történnek az új Control Centerben..)
  • dez #38
    Hát, ez a csalás dolog kicsit túl van sarkítva. Pl. a csillag rajzolató AF szűrést az ATI találta ki, és többekk szerint is észrevehető néha a dolog. Ez eleve egy kis előnyt jelentett az ATI-nak. (A 6-osban az NV is átvette, sőt, DX alap dolog lett.) Meg valaki itt azt írta nemrég, hogy a mai driverek úgy hoznak ki jobb teljesítményt az FX-ből, hogy annak semmilyen látható hátránya nincs. Csak ez ma már senkit sem érdekel.
    Független shader programozók szerint van néhány olyan speciális effekt, amit csak SM3.0-val lehet megvalósítani (élethűbb fénytörés, és egyéb raytracing-szerű megoldások, stb.) - bár ezekkel egyelőre valószínűleg inkább csak techdemókban lehet találkozni (az egyik kevésbé ismert gyártónak vannak is ilyen SM3.0 demói), mert a mai kártyák még nem elég gyorsak ahhoz, hogy ilyenekkel legyen tele a játék. De az igazán valósághű bumpmapping is SM3.0 feature.
    Persze ettől még az időtállóság dolog is kicsit túl van színezve, mert a legtöbben jövőre úgyis lecserélik a kártyáikat. Bár vannak, akik inkább 2 évente cserélnek. (Én mindenesetre nem sokat játszom, inkább techdemókkat nézegetek, és majd eljátszogatok pl. az NV letölthető shader-editorjával.)
  • Borg #37
    Elterelhetjük persze időtállósági kérdésnek az egészet, de anno korántsem ez volt a fő érv ez vagy az ellen/mellett. Az R300 bő fél évvel az FX-ek megjelenése előtt a piacon volt, és még úgy is bőven többet tudott náluk. Illetve amit tudott, azt sokkal gyorsabban. Tény és való, hogy nem volt ps2.0-s játék a piacon hosszú ideig, mint ahogy most ps3.0-s sem lesz. Az csak egy komponense volt az FX-ek bukásának, hogy a jövőjük bizonytalan volt a gyenge PS2.0 miatt. A másik, és legütősebb érv az nVIDIA csaló magatartása volt, hogy ütőképes termék helyett a driverbe épített csalásokkal próbálta még a DX8-as teljesítményét is az R300-éval egy szintre hozni. Az FX-ek egyes egyedül az OpenGL API alatt voltak egyértelmű előnyei, és ott is csak a komolyabb driver támogatás miatt. Szal ezt a témát már ne keverjük ide, mert egyátalán nem ugyanaz a helyzet.
    A GeForce6 család igenis ütős lett, de valahol természetes, hogy az emberek többsége szkeptikus szemmel nézni az nvidia tevékenységét azokután, ahogy tavaly elásta magát. Ez te sem vitathatod.
    Ezenkívül, azt sem mondta senki ha jól emlékszem, hogy az X800 sorozat bármennyivel is időtállóbb lenne. Hol volt ilyen? Sehol. Na látod! Attól, hogy kijelentjük, hogy az SM3-ra a felhasználóknak, tehát a VÁSÁRLÓKNAK nincs szükségük sem jelenleg, sem a közeljövőben, még nem mondtuk ki azt, hogy jobban megéri X800-at venni.
    Másrészt, azért tegyük hozzá, hogy az SM3.0 korántsem olyan esszenciális technológia, mint a 2.0 volt anno. Mindössze optimalizálásokat, könnyebb programozhatóságot, és így némi teljesítménytöbbletet ígér, korántsem akkora generációváltást, mint a 2.0. Magyarán, noha tény, hogy hiányozni fog az X800-akról jövő évben a feature, egyátalán nem létfontosságú hiányosságról lesz szó.

    Ha a zárójeles megjegyzéseddel netán Cvd-re utalsz, ő már régen bebizonyította, hogy nem érdemes leállni vele vitatkozni. Érvelni nem tud, csak mellébeszéléssel kontrázni. Most is totál más síkra próbálja terelni azt amiről szó van, ezért nem is foglalkozok vele. Anno már az FX-ek megjelenése előtt mikor megvolt a specifikációjuk tudni lehetett, hogy simán bebuknak, de ő még akkor is a hülyeségeit szajkózta, hogy 2x gyorsabb lesz az R300-nál, amikor az első tesztek bebizonyították az ellenkezőjét... Akkor is ugyanezt csinálta már, hogy személyeskedéssel próbált visszavágni a felsorolt tényekre. Szal őt hagyjuk ki ebből, nálam nincs hitele a mondandójának.
  • Cvd #36
    Gondolom nem tűnt fel hogy nem a cikkre reagáltam hanem a hozzászólásodra. Talán nem nekem kellene kinyitnom a szemem. Bagatelizálhatod az ATI-k alacsonyabb fogyását, de tény hogy sokkal jobban fogynak az nV-k a felső szegmensben, és hasonló vátható a középmezőnyben is. Anno az ATI is nagyot szakított az R300-zal, holott semmi gyakorlati haszna nem volt a DX9-nek rajta.
    Arról meg végképp ne beszéljünk hogy ki mond hülyeséget aztán nem ismeri be hanem még rátesz. Emlékszem még a DOOM3 első videobemutatójára Carmackkal Gef3-on ami szerinted nem létezik (még mindig fent van a neten!), vagy az ugyancsak nem létező EV6-os Alpha procira, hogy többet ne is említsek. Valamint ideje lenne leszokni arról hogy az embert támadod, a hozzászólása helyett, még mindig gyerekes.
    Lehet törölni.
  • dez #35
    Na jó, mondjuk a 9700 időtállóságához az is kellett, hogy gyenge volt az FX PS2.0-ban, miközben nem lehet tudni, mennyire lesz ütős az ATI 2005-ös generációja.
  • dez #34
    Áhh, egyébként felesleges erről vitázni. Úgysem ismerik el, egyszerűbb, hogy a kedves olvasó a hülye. Pedig a többség nem az, látja a nyilvánvalót, csak nem teszi szóvá, mert minek (bár reméli, hogy van valami értelmes célja a dolognak).