Gyurkity Péter

nVidia: jön a hibrid SLI

Az nVidia az integrált és a különálló grafikus kártyák erejét ötvözné a hibrid SLI révén, amely megfelelő teljesítményt és tűrhető fogyasztást ígér, így akár noteszgépekben is helyet kaphat.

Az X-bit Labs Jen Hszun Huang, a cég vezérigazgatója által elmondottakra hivatkozva adta hírül, hogy már javában dolgoznak a hibrid SLI felállásokon, amelyek a meglévő párosítások egyetlen nagy hátrányát küszöbölnék ki. Ez nem más, mint a hatalmas fogyasztás, amely az erős grafikus kártyák alkalmazása esetén elkerülhetetlen - ám az új megoldás erre is gyógyírt ígér.


Természetesen ennek ára van, hiszen a fogyasztást csak úgy tudják leszorítani, hogy visszafogják a számítási kapacitást, vagyis gyengébb összeállításokat terveznek. Ezt az nVidia úgy oldaná meg, hogy két különálló grafikus kártya helyett ezúttal egy integrált és egy kártyán helyet foglaló chip erejét ötvözné. Előbbit a kisebb erőt igénylő feladatokhoz, utóbbit pedig a számításigényes műveletekhez vennék igénybe, amelybe az integrált vezérlő is besegítene, már amennyire tud. Ettől a megoldástól azt várják, hogy jobb lesz a hagyományos egykártyás rendszereknél ám a fogyasztást nem növeli jelentős mértékben.


A Hibrid SLI esetében tehát két üzemmód közül választhatnánk. Az első a Power Saving Mode, amely kikapcsolja a különálló grafikus kártyát és az integrált vezérlőre bízza a meglévő feladatok végrehajtását, persze csak abban az esetben, ha az nem követeli meg a nagyobb erőt. A számításigényes műveleteknél viszont automatikusan elfoglalná a helyét a Max Performance Mode, amely viszont már a különálló vezérlőre bízza a főszerepet, míg integrált társa itt-ott besegíthet a feladatban. Ily módon a noteszgépeket is elláthatják két vezérlővel, anélkül, hogy mindez hátrányosan érintené az üzemidőt.

"A két vezérlő között váltásnál nincs szükség a monitor átkötésére. A megoldás révén ugyanis a videojel mindig az alaplapi vezérlő kimenetén távozik" - magyarázta Jeff Fisher, az nVidia GPU-részlegének ügyvezető igazgatója. Kérdés, hogy az ilyen és hasonló összeállítások mennyire lesznek népszerűek a vásárlók körében.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • magus4884 #9
    Ez szerintem marhaság!!!A laptopok nem azé vanak hogy játszunk rajta,szerintem laptoba két videó kártya tök fölösleges.Ha meg nagy tejesitményü számitógépet veszek akkor az engem nem érdekel hogy menyit fogyaszt, csak jól menyenek rajta a játékok.És akkor inkább egy rendes Sli -s videó kártyát veszek,ami tök jól futatja a játékot.És inkáb legyen több a villanyszámla ,mint az hogy veszek egy olyan gépet amiben sli-s video kártya van, de az egyik belevan forasztva a gépe ami ráadásul levan butitva és még a külön állo grafikus kártyát is ki be kéne kapcsolnom.
  • kvp #8
    "Miért nem lehet a GPU-ban is lekapcsolni a nem használt részeket, s visszavenni a sebességet, mint a CPU-knál? Az is energia pazarlás, ha duplán gyártunk le mindent."

    Le lehet, csak ez a dragabb megoldas. Ahogy a voodoo eseten is az volt a dragabb megoldas, hogy a 3d kartya ala kellett egy 2d-s. Alapvetoen errol van szo most is. A mai g80-as gpu-k kepesek csoportonkent kapcsolgatni a komponenseiket. Igazi elonye a fenti megoldasnak csak akkor van, ha csak az integralt vezerlo van csak fizikailag a gepben es a masikat kulso pci-express csatoloval lehet radugni. Igy csak a dokkoloallomasban erheto el a teljes 3d, viszont a teljes rendszer mobilisabb lesz. A technika csak annyi, hogy a kartya visszakuldi a framebufferbol a kesz kepet a masiknak es az jeleniti meg. Ilyen megoldast hasznaltak annak idejen a 80-as evekben az ibm renderkartyai is. (azokon meg kimenet sem volt)

    A kerdes, hogy mikortol arulnak ilyen kartyakat express card csatoloval? (kulso express card/pci-e atalkito dobozt mar lehet kapni, de abba asztali kartya kell es azok tul nagyok)
  • Zro #7
    Miért nem lehet a GPU-ban is lekapcsolni a nem használt részeket, s visszavenni a sebességet, mint a CPU-knál? Az is energia pazarlás, ha duplán gyártunk le mindent.
  • Chriss745 #6
    Nem lenne egyszerűbb fejleszteni a videókártyák azon fonkcióját, miszerint ha nem hajtod 1000-el, ne egyen mint az állat? Ez a CPU-nál is sikerült (úgy ahogy)
  • waterman #5
    a programok olyanok mint a gázok.. kitöltik a rendelkezésre álló teret. ahogy gyorsul a vas, egyre kevésbé optimalizálnak, "ugyan már, elbírja az" alapon.
  • Bith #4
    "...ergo nem kell még a fél-játékőrülteknek sem évente lecserélni az egész vasat."
    Na ezt elfelejtheted. A gyártók maguk alatt nem vágják a fát. Úgy van ez kitalálva, hogy bizony meg kelljen venni az újabbat.

    (egyébként a teljesítményzombiknak félévente illik, nem évente :))
  • asysoft #3
    Most is vannak nVidia/Ati integrált GPU-t tartalmazó chipsetek. Egyébként itt nem a teljesítménynövelés a fő cél, sokkal inkább a fogyasztás minimalizálása, pl nincs szükség arra, hogy pörögjön a Gef8800, ha csak az Aero felület megjelenítése a cél... (egyébként ez emlékeztet az AMD új mobilplatform terveire).
    "De szerintem ez nem lesz gond, mert a jövőbeni vezérlők már minden igényt ki fognak tudni elégíteni..."
    Szerintem nincs olyan számítási kapacitás, amit ne lehetne kihasználni. Max még kevesebbet optimalizálnak...:)
  • szombi #2
    Jaja. És majd az S3-as integrált szépen megosztja hangyányi erejét a negy tesóval?

    Szerintem ez halott ötlet, a jövő a MINŐSÉGI INTEGRÁLT vezérlőkben keresendő.
    Tehát a jelenlegi integrált megoldásokat felváltják a márkásak.
    Ez azt fogja jelenteni, hogy az alaplapra nVidia vagy ATI vezérlő kerül,
    a memóriát meg várhatóan vagy a GPU-ba, vagy annak tokjára, vagy az alaplapra integrálják.

    Csak arról kell így lemondania a felhasználónak, hogy adott alaplap mellett kicserélje a videókártyát.
    De szerintem ez nem lesz gond, mert a jövőbeni vezérlők már minden igényt ki fognak tudni elégíteni,
    ergo nem kell még a fél-játékőrülteknek sem évente lecserélni az egész vasat.
  • grebber #1
    Ez egy frankó ötlet szerintem.