SG.hu·

Egyre több a gond a Microsoft WHQL minősítések körül

Újabb problémákra derült fény, a Microsoft WHQL driver minősítésével kapcsolatban. A legfrissebb meghajtó ami fennakadt a tesztelés során a legújabb nVIDIA ForceWare, a 66.81-es verzió. A Pixel Shader 3.0 alrendszer egyszerűen sehogy sem megy át a teszten.

A Microsoft Display Compatibility Test (DCT) egy olyan eljárás, amivel a grafikus kártyákat és a chipkészleteiket tesztelik, hogy megfelelnek-e a Windows XP és a Windows Server 2003 elvárásainak. A tesztben a DirectX 7, 8.1a, és 9.0c verziókra tesztelnek, hogy az adott meghajtó, és hardver megfelel-e a specifikációknak. Ez a DCT teszt szükséges ahhoz, hogy valamilyen driver megkapja a WHQL (Windows Hardware Quality Labs) minősítést, ami a gyártók, az OEM partnerek és a végfelhasználók oldaláról is megkövetelt dolog, hiszen az előnyei egyértelműek.

Technikailag a teszt minden lépésének meg kell felelni, azonban adódhatnak kivételek is, amikor valamilyen okból egy gyártó nem felel meg a tesztnek. A DCT legújabb verziója, az 5.2-es már igen komoly figyelmet szentel a videokártyák legfrissebb technológiáinak is. Így természetesen az ATI és az nVIDIA innovációit is tesztelik, ezek közül azonban mégsem megy át minden a próbán.

Ebben a konkrét esetben az nVIDIA féle Pixel Shader 3.0 technológia bukott meg, méghozzá a ForceWare 66.81 driver alatt 6800 Ultra és 6600GT hardvereken futtatva is. Persze ez nem egyedüli eset, hiszen idén már egyszer az ATI is belefutott egy hasonló csapdába, aholis a saját "geometry instancing" nevű technológiája bizonyult inkompatibilisnek a DCT 5.2-es verziójával, és így a Microsoft követelményeivel. Ebben az esetben, hogy az adott Catalyst mégis megkapja a WHQL minősítést, az ATI-nak le kellett tiltania az adott technológiát. Pontosabban az ATI alapból letiltotta ugyan, de Microsoft engedélyezte, hogy a Catalyst Control Panel segítségével a végfelhasználó bekapcsolhassa amikor akarja.

Az nVIDIA szóvivője szerint a cég hivatalos driverei át fognak menni a DCT 5.2 tesztjén, de hogy ezt hogyan és mikorra valósítják meg, arról nem esett szó. Érdekes módon az nVIDIA az nZone weboldalon keresztül jelenleg is WHQL minősített felirattal tette elérhetővé a ForceWare 66.81-es driverét. Martina Sourada, az nVIDIA szoftver certifikációs elnöke annyit tett hozzá, hogy éppen azon dolgoznak, hogy a teszten átment drivert közzétehessék a publikus weboldalakon, de időpontot erre nem tudott mondani. Elismerte azonban, hogy jelenleg is vannak még hibák a meghajtó kapcsán, amelyeket azonban a Microsoft már elnéz, vagy nem vesz figyelembe a minősítés során. Hogy az nVIDIA letiltja-e a technológiát, vagy ki-be kapcsolhatóvá teszi, vagy netán alapjaiban átdolgozza az ide vonatkozó részeit a meghajtónak egyelőre kétséges. Még egy opció is van - és ez a legvalószínűbb -, méghozzá az, hogy a Pixel Shader 3.0 alrendszernek csak a problémás komponenseit tiltják le, így tehát a driver máris átmegy majd a teszten, de a Pixel Shader 3.0 támogatás már nem lesz teljes.

A Pixel Shader 3.0 az nVIDIA fő érve, a saját GeForce 6 termékcsaládja mellett, azonban logikus, hogy ez a minősítési galiba nem éppen fog segíteni elterjedésében. Nemrég ráadásul az ATI-ról is kiszivárgott, hogy a következő generációs hardvere már támogatni fogja a technológiát, igaz, némileg modernebb formában. Noha a Microsoft nem követeli meg az nVIDIA-tól, hogy letiltsa a Pixel Shader 3.0-t a drivereiben, tény és való, hogy a megoldás egyes részeinek szoftveres és hardveres oldala nem teljesen kompatibilis egymással. Az nVIDIA természetesen állítja, hogy semmi probléma nem lesz a Pixel Shader 3.0 adoptációja kapcsán.

Az tehát egyelőre tisztázatlan, hogy a technológiának pontosan mely részeivel nincs kibékülve a Microsoft, azonban már csak a kétségek létezése is komoly akadályokat állít a technológia elterjedésének útjába. Ráadásul a grafikus megoldások gyártói egyre inkább eltérnek azoktól a szabványoktól, amelyeket a Microsoft annak érdekében fektetett le, hogy a végfelhasználó oldalán minden hardver minden szoftverrel tökéletesen fusson. Ugyan a Microsoft megengedte a cégeknek, hogy a Pixel és Vertex árnyalókból különböző verziókkal hozakodjanak elő, a cég továbbra is igen komolyan megköveteli hogy a szabványokat teljesítsék, és maximális kompatibilitás legyen az operációs rendszer és a szoftverek-hardverek között. A gyártók azonban ennél nagyobb szabadságra és flexibilitásra vágynak, magától értetődő marketing, és piaci részesedési okokból.

A legjobb példa erre a FarCry nevű népszerű FPS játék, amely nemrég kapott egy frissítést a HDR és 3Dc technológiák támogatásához. Míg az előbbi az Industrial Light & Magic fejlesztése és így az nVIDIA GeForce 6 hardver kizárólagos sajátja, az utóbbi technológia az ATI Technologies innovációja, és így érthetően kizárólag az RADEON X700/X800 família támogatja. Az egyik oldalon tehát ott áll Microsoft és persze mi magunk, azzal a jól felfogott érdekkel, hogy előbb-utóbb ne jussunk el arra a pontra, hogy egyik játék csak ezen a videokártyán, másik játék pedig csak a másik cég videokártyáján fut majd el. A másik oldalon pedig a videokártya gyártók saját érdeke áll, hogy kizárólagos, új technológiákkal fölényt szerezzenek a másik céggel szemben, egyre nagyobb szeletet kaparintva meg a piacból.

Az érdekes kérdés még talán az lehet a jövőre nézve, hogy a játékfejlesztő cégek melyik oldalra fognak állni, hiszen az ő szavuk is döntő ebben. Mert noha ha az adott cég logója és technológiája van mellékelve a játékhoz akkor a vállalat részéről igen komoly anyagi juttatásokban részesülnek, mégis az érdekeik sokkal inkább a Microsoft, illetve a végfelhasználók álláspontjához esnek közel.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© Borg2004. 11. 12.. 18:01||#43
Amúgy a control center témával egytértek. Az új AI funkció lényegében semmi más, mint az nVIDIA tavalyi csalása, csak éppen 3 igen fontos különbséggel:
-nincs látható képminõség veszteség
-be van jelentve (tudunk róla)
-KIKAPCSOLHATÓ.

Mindezek mellett a CC egy hulladék lett, szerintem ki sem szabadott volna adniuk még. Ez már nem az elsõ CC-s catalyst, és még mindig sok a gond vele. (én magam inkább Omegát raktam most fel). Magával a driverrel viszont semmi gond.
© Borg2004. 11. 12.. 17:51||#42
Ez pölö egy érdekes dolog, nemtom láttad e már:

"Here's a demo that does dynamic branching, without the need for pixel shader 3.0, and still receives the huge performance boost that pixel shader 3.0 dynamic branching supposedly gives when utilized in a similar fashion."

Beyond 3D

Persze, ahogy lentebb ott le is írják, a devek valszeg inkább az SM3-hoz nyúlnak majd, mint az ilyen fajta speciális 2.0 kódokhoz. Ez csak annyit mutat meg, az elõbbihez képest az utóbbi azért nincs elmaradva különösebben.

Szal, az SM2.0 nem fog úgy teljesíteni és kinézni mint a 3, de nem azért mert nem képes rá, hanem azért, mert a fejlesztõknek egyszerûbb a 3.0-val megvalósítani már a dolgokat. Ezt bizonyítja ez a demo is.
© dez2004. 11. 12.. 00:17||#41
Alapból túl magasra van véve, de lehet szabályozni (10-es a legjobb, amelyik a nagyjából leggyengébb).
© janos6662004. 11. 11.. 21:31||#40
Láttam a Far Cray HDR tesztet, képeket. Nekem is nagyon tetszik ez a HDR már a HL2 videó (háztetõs) óta. Meglepõen sokat jelen ahhoz képest mennyi a hardverigénye. (a Far Cry-nál elvileg ugye 4-5%). Fõleg ha majd rendesen használják, mert nekem a Far Cry erõsen techdemo játék, vagyis túlnomatnak mindent hogy megmutassák viszi a motor...
© dez2004. 11. 11.. 14:05||#39
(Ja, az elsõhöz még, hogy azért most elég "érdekes" dolgok történnek az új Control Centerben..)
© dez2004. 11. 11.. 14:02||#38
Hát, ez a csalás dolog kicsit túl van sarkítva. Pl. a csillag rajzolató AF szûrést az ATI találta ki, és többekk szerint is észrevehetõ néha a dolog. Ez eleve egy kis elõnyt jelentett az ATI-nak. (A 6-osban az NV is átvette, sõt, DX alap dolog lett.) Meg valaki itt azt írta nemrég, hogy a mai driverek úgy hoznak ki jobb teljesítményt az FX-bõl, hogy annak semmilyen látható hátránya nincs. Csak ez ma már senkit sem érdekel.
Független shader programozók szerint van néhány olyan speciális effekt, amit csak SM3.0-val lehet megvalósítani (élethûbb fénytörés, és egyéb raytracing-szerû megoldások, stb.) - bár ezekkel egyelõre valószínûleg inkább csak techdemókban lehet találkozni (az egyik kevésbé ismert gyártónak vannak is ilyen SM3.0 demói), mert a mai kártyák még nem elég gyorsak ahhoz, hogy ilyenekkel legyen tele a játék. De az igazán valósághû bumpmapping is SM3.0 feature.
Persze ettõl még az idõtállóság dolog is kicsit túl van színezve, mert a legtöbben jövõre úgyis lecserélik a kártyáikat. Bár vannak, akik inkább 2 évente cserélnek. (Én mindenesetre nem sokat játszom, inkább techdemókkat nézegetek, és majd eljátszogatok pl. az NV letölthetõ shader-editorjával.)
© Borg2004. 11. 11.. 09:51||#37
Elterelhetjük persze idõtállósági kérdésnek az egészet, de anno korántsem ez volt a fõ érv ez vagy az ellen/mellett. Az R300 bõ fél évvel az FX-ek megjelenése elõtt a piacon volt, és még úgy is bõven többet tudott náluk. Illetve amit tudott, azt sokkal gyorsabban. Tény és való, hogy nem volt ps2.0-s játék a piacon hosszú ideig, mint ahogy most ps3.0-s sem lesz. Az csak egy komponense volt az FX-ek bukásának, hogy a jövõjük bizonytalan volt a gyenge PS2.0 miatt. A másik, és legütõsebb érv az nVIDIA csaló magatartása volt, hogy ütõképes termék helyett a driverbe épített csalásokkal próbálta még a DX8-as teljesítményét is az R300-éval egy szintre hozni. Az FX-ek egyes egyedül az OpenGL API alatt voltak egyértelmû elõnyei, és ott is csak a komolyabb driver támogatás miatt. Szal ezt a témát már ne keverjük ide, mert egyátalán nem ugyanaz a helyzet.
A GeForce6 család igenis ütõs lett, de valahol természetes, hogy az emberek többsége szkeptikus szemmel nézni az nvidia tevékenységét azokután, ahogy tavaly elásta magát. Ez te sem vitathatod.
Ezenkívül, azt sem mondta senki ha jól emlékszem, hogy az X800 sorozat bármennyivel is idõtállóbb lenne. Hol volt ilyen? Sehol. Na látod! Attól, hogy kijelentjük, hogy az SM3-ra a felhasználóknak, tehát a VÁSÁRLÓKNAK nincs szükségük sem jelenleg, sem a közeljövõben, még nem mondtuk ki azt, hogy jobban megéri X800-at venni.
Másrészt, azért tegyük hozzá, hogy az SM3.0 korántsem olyan esszenciális technológia, mint a 2.0 volt anno. Mindössze optimalizálásokat, könnyebb programozhatóságot, és így némi teljesítménytöbbletet ígér, korántsem akkora generációváltást, mint a 2.0. Magyarán, noha tény, hogy hiányozni fog az X800-akról jövõ évben a feature, egyátalán nem létfontosságú hiányosságról lesz szó.

Ha a zárójeles megjegyzéseddel netán Cvd-re utalsz, õ már régen bebizonyította, hogy nem érdemes leállni vele vitatkozni. Érvelni nem tud, csak mellébeszéléssel kontrázni. Most is totál más síkra próbálja terelni azt amirõl szó van, ezért nem is foglalkozok vele. Anno már az FX-ek megjelenése elõtt mikor megvolt a specifikációjuk tudni lehetett, hogy simán bebuknak, de õ még akkor is a hülyeségeit szajkózta, hogy 2x gyorsabb lesz az R300-nál, amikor az elsõ tesztek bebizonyították az ellenkezõjét... Akkor is ugyanezt csinálta már, hogy személyeskedéssel próbált visszavágni a felsorolt tényekre. Szal õt hagyjuk ki ebbõl, nálam nincs hitele a mondandójának.
© Cvd2004. 11. 11.. 00:03||#36
Gondolom nem tûnt fel hogy nem a cikkre reagáltam hanem a hozzászólásodra. Talán nem nekem kellene kinyitnom a szemem. Bagatelizálhatod az ATI-k alacsonyabb fogyását, de tény hogy sokkal jobban fogynak az nV-k a felsõ szegmensben, és hasonló vátható a középmezõnyben is. Anno az ATI is nagyot szakított az R300-zal, holott semmi gyakorlati haszna nem volt a DX9-nek rajta.
Arról meg végképp ne beszéljünk hogy ki mond hülyeséget aztán nem ismeri be hanem még rátesz. Emlékszem még a DOOM3 elsõ videobemutatójára Carmackkal Gef3-on ami szerinted nem létezik (még mindig fent van a neten!), vagy az ugyancsak nem létezõ EV6-os Alpha procira, hogy többet ne is említsek. Valamint ideje lenne leszokni arról hogy az embert támadod, a hozzászólása helyett, még mindig gyerekes.
Lehet törölni.
© dez2004. 11. 10.. 19:23||#35
Na jó, mondjuk a 9700 idõtállóságához az is kellett, hogy gyenge volt az FX PS2.0-ban, miközben nem lehet tudni, mennyire lesz ütõs az ATI 2005-ös generációja.
© dez2004. 11. 10.. 17:34||#34
Áhh, egyébként felesleges errõl vitázni. Úgysem ismerik el, egyszerûbb, hogy a kedves olvasó a hülye. Pedig a többség nem az, látja a nyilvánvalót, csak nem teszi szóvá, mert minek (bár reméli, hogy van valami értelmes célja a dolognak).