Gyurkity Péter

Az ikermagos chipekre optimalizálja meghajtóit az Nvidia

Az Nvidia egyik tisztviselője megerősítette, hogy a vállalat az eddiginél jobban ki szeretné használni a nemrég megjelent ikermagos, illetve a jövőben megjelenő többmagos processzorok előnyeit, mégpedig grafikus kártya meghajtóinak optimalizálásával.

A The Tech Report cikke Ben de Waal, az Nvidia GPU szoftverrészlegének alelnökére hivatkozik, aki egy interjúban arról beszélt, hogy a vállalat többszálas verziót készít a GeForce grafikus kártyákhoz használt ForceWare meghajtókból. Az alelnök szerint az ikermagos chipek, illetve a többprocesszoros PC-k előnyeinek kihasználásával 5-30 százalék között tudnák növelni a 3D-s játékok alatti teljesítményt, ami mindenképpen jelentős eredmény lenne számukra.

Ezt többek között a vertex számítások jobb elosztásával lehetne elérni, ugyanis a proceszorhoz átirányított számításokat több szálon, párhuzamosan lehetne elvégeztetni, így jelentős mértékben lerövidülne az ehhez szükséges idő, és a processzor jóval nagyobb segítségére lehetne az időnként kissé túlterhelt grafikus chipnek. Arra a kérdésre, hogy az Nvidia meghajtói ezt eddig miért nem használták ki, de Waal azt válaszolta, hogy ez az operációs rendszer korlátaiba ütközik, és csak hosszas fejlesztői munkával tudták megkerülni ezen korlátokat.

Ami az útitervet illeti, az alelnök erről is szolgált némi információval, és többek között azt is elárulta, hogy az Nvidia tulajdonosoknak még várniuk kell egy darabig az új meghajtóra. Elmondása szerint a ForceWare szoftver soron következő, 75-ös verziója az SLI, illetve a 64 bites Windows területén jelent majd előrelépést, míg a többszálas üzemmódot, illetve az ikermagos processzorokat is kihasználó meghajtó valószínűleg 80-as verziószámmal jelenik majd meg. Ennek pontos megjelenési dátuma azonban még nem világos, és könnyen előfordulhat, hogy akár több hónapot is várnunk kell rá.

Ez persze korántsem jelent óriási problémát: az Intel április közepén, míg az AMD némi késéssel, a május végén tette elérhetővé ikermagos processzorait, amelyek még egyáltalán nem terjedtek el a piacon. Nagyon korai stádiumban vagyunk tehát, de mindenképpen biztató jel, hogy az Nvidia már most igyekszik kihasználni az új processzorok nyújtotta előnyöket. Remélhetőleg nem fog újra bekövetkezni az a szégyenletes állapot, ami a 64 bites chipek megjelenésekor vált nyilvánvalóvá, hogy tudni illik nem igazán áll rendelkezésre a megfelelő szoftveres háttér, és igen kevés alkalmazás használja ki a technológia előnyeit.

Ugyan a többszálas üzemmódot kihasználó meghajtók a kifejezetten ikermagos rendszerekre fejlesztett játékok megjelenésével némileg veszíthetnek fényükből, de jó tudni, hogy a grafikus kártya gyártók is megteszik a magukét, és igyekeznek még vonzóbbá tenni a platformot.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • irkab1rka #24
    bocsi a hosszú postért, nem kell elolvasni. Röviden:
    NVidia mérnöki gárda hülye, Arty okos :DDD
  • irkab1rka #23
    Arty, a felhasználók 98%-a idejének 98%-ban passziánszt futtat, nekik a gép is felesleges, vegyél nekik 2 doboz römikártyát oszt jóvan :)
    mivel nekem fejlesztés közben megy a film, és amikor elindítom az alkalmazást akkor sem állítom le, és mivel erősen több szálú alkalmazást fejlesztek (a szerver is futtat pár szálat, és a kliens sem fukarkodik velük - hál istennek a db legalább más gépen van), talán beláthatod, hogy nekem, meg mindazoknak, akik ilyesmivel foglalkoznak, azokat biztos nem érinti hátrányosan ez a többmagos dolog.
    A homeuser meg ugye a háttérben dcpp, előtérben cs, és sajnos időközben megállítja a virtualdubot, mert ugye mindent nem lehet egyszerre.
    Azt sem kéne szem elől tévesztened, hogy a userek 99%-a szerverekhez fordul az adatért, ha mondjuk reggel böngészt nyit, szóval talán kicsit érinti őket a dolog, márpedig ha nem cache-elt content managementről beszélünk, hanem adatbázis használatról is (ne adj isten google), ahol le kell tolni pár rendezést meg search-öt a szerveren, akkor talán talán az egyszálúság iciri picirit lassít a user életén, nem? És itt most erősen az otthoni internet véglényről beszélünk ugye?
    Azt hiszem te a kocsmás részen kicsit megsértődtél bocsánat, de eredetileg neked a tanulós részt szántam. De látom, pédául angolul tudsz idézni. Segítek jó: a "have 8 (up from 6) vertex pipelines" az arra vonatkozik, hogy párhuzamosan dolgozik a GPU. Most megyek és megkeresem, hogy anno, mikor bejött a második pipeline és róla a cikk, akkor biztos irtál a fórumba, hogy mekkora hülyeség még egy pipeline, hiszen kinek van arra szüksége. Vagy ne keressem?? :)))))
    "Ami a nagygépes rendszerekben igény, arra az otthoni felhasználónak általában nincs szüksége."
    Tudod mit, tanuld meg, hogy hogy működik a 16 bites alrendszer meg a virtualizáció, jó? Vannak róla szép tankönyvek, nyisd, ki, kezdjél el olvasni. Képek is vannak benne :DDD És ha még nem hallottál a 16 bites driverekről (remélem az utolsót is kidobták végre), akkor nem igazán érdemes folytatnunk ezt a beszélgetést, ugye?

    Asysoft: a próféta beszét belőled:
    http://www.sg.hu/cikkek/40042
  • dez #22
    Hát igen, minden szempontból gyengus már az x86 ide. A dual-core sem túl nagy durranás. Most már nem ilyen max. 2x-es gyorsulásra lenne szükség (ez is jó drágán, azaz a többségnek ez inkább csak 50% plusz, vagy annyi se), hanem 10x-es, stb. (Egyébként ne felejtsük el, hogy miközben a prociteljesítmény nem sokat változik, a felhasznált poligonok száma [is] egyre csak nő... Tehát, ha a többi feladat pont annyi marad, akkor is lassulás áll be.)
  • arty #21
    sztem is szimplán erről van szo ... inkább az egyéb feladatok mennek a "GPU kárára" ... ezért lesz egy játék proc limites. ahogy elnézem az uj gef7et, a proc limit mostantol bebetonozza magát a gépeinkbe, a dual mag sem képes lépét tartani az egyenlőre töretlen GPU fejlődéssel ...
  • dez #20
    Azt mondjuk írtam, hogy "nem tudja kiszolgálni adattal" (a proci a GPU-t). Persze az egyéb feladatok mellett. (Bár szerintem ebben benne van a karakterek mozgatása is, ami megintcsak teljesítményigényes nagyszámú poligon-feldolgozási művelet, és azt hiszem, nem vesz részt benne a GPU. Aztán ott van még a fizika is - bár itt bejön majd a HW-gyorsítás, de azt a chipet is el kell látni adattal, majd visszaolvasni az eredményt, stb.)
  • dez #19
    Hát, én nem mondtam, hogy vertexfeldolgozás-limitesség esete forogna fenn. :) Csak hogy a kimondottan vertexfeldolgozási teljesítményt mérő cuccokban kijön a kevesebb vertex-egység, tehát ezt legalábbis nem veszi át a proci. De akkor mit? Mivel a többi feladat nem igazán a procinak való, azaz ha megszakad, akkor sem sokat tud hozzátenni a GPU teljesítményéhez.
  • arty #18
    öö ... szintetikus bencsmárkokbol nem szabad levonni semmit! a mai kártyák nem vertexfeldolgozás limitesek:(vagy az alkalmazások nem??? :)) )

    Anandtech a G70-ről:
    "The first thing to notice is that we now have 8 (up from 6) vertex pipelines. We still aren't vertex processing limited (except in the workstation market), but this 33% upgrade in vertex power will help to keep the extra pixel pipelines fed as well as handle any added vertex load developers try to throw at games in the near future. "

    driver/directx terhelésről semmit sem tudok ...
  • dez #17
    Én úgy hallottam, általában a driver + a DirectX együtt már jelentős, kb. 30%-nyi prociidőt esznek. (Lehet, hogy az Nvidia driver némileg többet [mert tegyük fel átveszi a vertex-számítások egy részét - bár ezt én nem nagyon hiszem, mert kb. annyival szerepel rosszabbul pusztán vertex-számításban, amennyivel kevesebb vertex-egység van az ő GPU-ikban], az ATI meg kevesebbet, mint mondod.) Két procimagon, de nem dualmagra optimizált driver és játék esetén a legoptimálisabb, ha egy egyszálú játék az egyiken, a driver a másikon fut. Éppen akkor jó, ha a driver is (meg a DirectX is) kiegyensúlyozottan terheli a két magot, ha a játék is dualmagra optimizált... Különben az egyik procimagon lenne egy 15-30%-nyi kihasználatlanság (feltéve, hogy a kétszálú játék úgy van megírva, hogy pontosan 50-50%-ban oszoljon meg a saját terhelés két procimagon; attól függően 15 v. 30%, hogy annyi poligonnal dolgoznak, mint eddig, és a fennmaradó többlet prociidőt másra szánják, vagy arányosan több lesz a poligon is, tehát összességében magonként megmarad a 30% prociidő-kiosztás erre), ami ugye pazarlás.
  • arty #16
    kedves szánalmas.hu reklámember!

    "De most komolyan. Aki nem érti, hogy miért 64 bit,"

    kérlek, olvasd el a cikket, majd olvasd el még1x a hozzászólásomat. talán másodszorra feltűnik, a 64bitről szót nem ejtettem rövid kommentemben. ha nem, akkor goto 10 .... olvasd el ujra meg ujra.

    "Aki nem képes belátni, hogy a duál proci nem marketing, hanem igény"

    Igény? Továbbra is az otthoni (internetező, játszó) juzerekről beszélünk? Mert akkor már picit ingoványos a talaj ... igény a nagyobb teljesitményre van, gamereknek (továbbra sem felejted ugye el, h HÓMJUZERRŐL beszélünk!) jelenthet extrát a dual prociból adódó több/kevesebb extra számítási kapacitás. Ez eddig OK. Nyilván meg lehet majd úgy irni egy programot, hogy jelentősen gyorsuljon, de egy driver más tészta ... amikor azt mondjuk, hogy a CPU kevés a GPU alá, akkor az nem a driver cpu terheléséből adodik, hanem a játékok annyira komplexek (ai, fizika, stb), hogy a grafika kirajzoltatására már alig marad idő ... s ha most is ez a szűk keresztmetszet, akkor a jövőben sem a driver optimalizálásábol fogunk igazán profitálni, hanem magának a szoftvernek dualra optimalizáltsábából. Ezért irom, hogy az nvidia csak megpróbálja megolvagolni a jelenleg marketing zászloshajo "dual az isten" hullámokat ....

    "És még valami: ami neked ujdonság, az a nagygépes rendszerekben a múlt."

    Ami a nagygépes rendszerekben igény, arra az otthoni felhasználónak általában nincs szüksége.


    "Tanuljatok már végre valamit, vagy menjetek kocsmázni :)"

    Feltételezem a sok kocsmázástól csorbult a szövegértési/értelmezési képességed. Én inkább a kevesebb kocsmázásra buzditanálak ... ;)
  • dez #15
    Ez, hogy a GPU a proci segítségére szorul, és ettől lesz gyorsabb az egész... Ez egy elég érdekes, csalóka megfogalmazás. Inkább arról van szó, hogy 1db procimag nem tud már lépést tartani a GPU-val. (Nem tudja kiszolgálni adattal.)

    Az egy dolog, hogy az Nvidia GPU-kban rendre kevesebb vertex egység van, mint az ATI-kban, és ezért ide is bevonják a procit. De nem ez viszi el a teljesítmény nagy részét. ATI esetén is igaz, amit fent írtam, tehát, hogy kevés az egy CPU mag. Azaz, majd az ATI-nak is meg kell ezt lépnie.