Gyurkity Péter

Az nVidia a riválisok hibrid fejlesztéseit ócsárolja

A cég továbbra sem hisz az AMD és az Intel hibrid terveiben, szerintük ezek egyike sem nyújt majd életképes alternatívát a CUDA-, valamint a PhysX-motorral szemben. Azt elismerik, hogy alábecsülték a legújabb Radeon sorozatot.

John Montrym, a G200 chipek, vagyis a legújabb GeForce sorozat főtervezője közvetlenül a hétfőn elrajtolt Nvision konferencia előtt talált némi időt arra, hogy ismételten szapulja a riválisok terveit és az azokhoz kapcsolódó elképzeléseket. Véleménye szerint ugyanis sem az AMD Fusion processzorainak, sem pedig az Intel Larrabee projekt keretében napvilágot látó grafikus vezérlőknek sincs sok értelme, egyikük sem állja majd meg helyét a minőségre áhítozó felhasználók körében.

Azt ugyan a szakember elismeri, hogy alaposan alábecsülték a Radeon HD 4000-es sorozat példányainak teljesítményét, és emiatt kissé megszorultak a teljesítmény-ár mutatók terén, ám sok reményt fektet a CUDA (compute unified device architecture), valamint a PhysX-motorba - utóbbi épp most került be a legújabb GeForce meghajtókba. Ezek révén tovább növekedhet saját termékeik teljesítménye, jóllehet a CUDA elsősorban nem a fogyasztói termékekben jelenthet majd előrelépést. Az sem világos, hogy a PhysX miként növeli majd a meglévő játékok és egyéb alkalmazások sebességét, igaz a hibrid terveket dédelgető riválisok sem a teljesítményt emelik ki az új fejlesztések kapcsán.

Az AMD Fusion projektjében elsőként olyan hibrid chipek jelennek majd meg, amelyek nem is sebességben, hanem fogyasztásban és idővel az árban nyújtanak majd fontos előnyöket. A vezérlők integrálása révén a cég szerint gazdaságosabbá tehetik a termékek előállítását, a beágyazott, a mobil, idővel pedig az asztali vonalon olyan termékekkel állhatnak elő, amelyek igen alacsony étvággyal rendelkeznek, a felépítés révén azonban sebességben is elfogadhatót nyújtanak.

Az Intel terveivel az nVidia szerint a következő a probléma: a grafikus chipek kiegészítése az általános célú magokkal szintén nem jelent előrelépést a teljesítmény terén, emellett pedig a processzorlapka minden egyes plusz millimétere igencsak drága bővítést jelent. A rivális úgy véli, hogy a CPU-magokkal fontos kiegészítést nyújtanak a programozhatóság terén, miközben megtartják a kompatibilitást a DirectX és OpenGL technológiákkal, ám az nVidia szerint saját megoldásaik jobbak lesznek, tekintettel arra, hogy az első Larrabee termékek ereje nagyjából egy 2006-os grafikus vezérlő szintjén mozog majd.

Az Nvision konferencia első napján Jen-Hsun Huang vezérigazgató ismét megerősítette, hogy ők továbbra is a CPU kiegészítéseként gondolnak a grafikus chipekre, ezen téren pedig igyekeznek a legjobb teljesítményt nyújtani. Ismertette a Folding@home program egy speciális változatát, amely egy 24 ezer GPU-t tömörítő CUDA fejlesztői környezetre épül - ez alig 1 százaléka a projektben használt CPU-k számának, a teljesítmény mégis 1,5 petaflops, ami az eredeti ötszöröse. A mintegy 2,6 millió hagyományos PC-re támaszkodó projekt eddigi teljesítményét 288 teraflopsra becsülik.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • mamo33 #23
    Szegény Nvidiát lenyomták mint a bélyege és most kapkodnak fűhöz-fához! Hetente dobnak ki valami gagyit a piacra, aztán meg lehet, hogy még termékvisszahívás is lesz belőle! (és még az ATI-ra mondták, hogy melegedik!)
  • dez #22
    "Az Intel terveivel az nVidia szerint a következő a probléma: a grafikus chipek kiegészítése az általános célú magokkal szintén nem jelent előrelépést a teljesítmény terén, emellett pedig a processzorlapka minden egyes plusz millimétere igencsak drága bővítést jelent."

    Ezt éppenséggel szintén a Fusionnal kapcsolatban mondták. (A Larrabee egyébként sem "a grafikus chipek kiegészítése az általános célú magokkal", hanem - kövér vektoregységgekkel ellátott - általános magokból álló grafikus chip.)

    Amúgy bulváros az egész cikk. Ők csak elmondták a véleményüket - nagyrészt tényeket - a rendezvény miatt érdeklődő újságíróknak. Mellesleg pl. az Intel mérnökei sem ritkán mondja el a véleményét a többiekről, saját blogjaikban.
  • gybfefe #21
    Abból nem lesz pénzük további fejlesztésekre. Én már annak is örülnék ha egy 7600gt-re amire ráírják hogy hdtv nem úgy kéne fölkutatni a megvásárolható lejátszó programukat, vagy kilopni a powerdvd driverét, hogy aztán egy 2.8-as petykán tovább szaggasson :(
  • Sanyix #20
    Nemtudom, én 2 éve használtam először ati kártyát linux alatt, semmi gond nem volt, ment a hw gyorsítás, egyszerű is volt telepíteni a drivert.
  • sh4d0w808 #19
    Én azt nem vágom, hogy a G200-ak főtervezője miért dolgozik még mindig a cégnél... :D

    Ghotler: én még anno a Radeon 8500-nál váltottam ATi-ra, manapság már linuxban utazom, de semmi pénzért nem vennék nV kártyát. Nekem semmi gondom nincs az ATi X800GTO-val, van 3D gyorsításom, van működő TV-outom - mi kell még?
  • Abu85 #18
    A Linux-osok mostanában főleg Radeont vesznek ... Ennek az az oka, hogy Open Source lett a driver rá, amire már a 3dfx kapitulálása óta várnak a pignvin imádók.
  • Ghotler #17
    Csak egy dolog van amiért nem kedvelem az ATi-t és az az hogy olyan szar, húgy már elnézést driverokat csinálnak Linuxra hogy az nem lehet igaz, aki Linuxot használ és volt már ATi-ja az tudja miről beszélek. Nos én ezért teszem le a voksomat az Nvidia mellett.
  • Aspirin #16
    Lassan nekifoghatnának a "csoda-driverek" mellet böcsületes supportot biztosítani a korosodó, de még sok helyütt strapabíró chipjeik (pl. nForce3) számára a Pista vagy a 7 alá. Mert a 2.6-os linux kernelektől alapból ott a támogatás :D
  • who am I 7 #15
    Mert játékiparban nincs.A jelenben végképp és a jövőre nézve se sok.
  • scoorn #14
    A Larrabee - nek nem látom sok értelmét, az Nvidia pedig sz@r helyzetbe fog kerülni ha nem változtat a hozzáállásán.