SG.hu·

Az nVidia a riválisok hibrid fejlesztéseit ócsárolja

A cég továbbra sem hisz az AMD és az Intel hibrid terveiben, szerintük ezek egyike sem nyújt majd életképes alternatívát a CUDA-, valamint a PhysX-motorral szemben. Azt elismerik, hogy alábecsülték a legújabb Radeon sorozatot.

John Montrym, a G200 chipek, vagyis a legújabb GeForce sorozat főtervezője közvetlenül a hétfőn elrajtolt Nvision konferencia előtt talált némi időt arra, hogy ismételten szapulja a riválisok terveit és az azokhoz kapcsolódó elképzeléseket. Véleménye szerint ugyanis sem az AMD Fusion processzorainak, sem pedig az Intel Larrabee projekt keretében napvilágot látó grafikus vezérlőknek sincs sok értelme, egyikük sem állja majd meg helyét a minőségre áhítozó felhasználók körében.

Azt ugyan a szakember elismeri, hogy alaposan alábecsülték a Radeon HD 4000-es sorozat példányainak teljesítményét, és emiatt kissé megszorultak a teljesítmény-ár mutatók terén, ám sok reményt fektet a CUDA (compute unified device architecture), valamint a PhysX-motorba - utóbbi épp most került be a legújabb GeForce meghajtókba. Ezek révén tovább növekedhet saját termékeik teljesítménye, jóllehet a CUDA elsősorban nem a fogyasztói termékekben jelenthet majd előrelépést. Az sem világos, hogy a PhysX miként növeli majd a meglévő játékok és egyéb alkalmazások sebességét, igaz a hibrid terveket dédelgető riválisok sem a teljesítményt emelik ki az új fejlesztések kapcsán.

Az AMD Fusion projektjében elsőként olyan hibrid chipek jelennek majd meg, amelyek nem is sebességben, hanem fogyasztásban és idővel az árban nyújtanak majd fontos előnyöket. A vezérlők integrálása révén a cég szerint gazdaságosabbá tehetik a termékek előállítását, a beágyazott, a mobil, idővel pedig az asztali vonalon olyan termékekkel állhatnak elő, amelyek igen alacsony étvággyal rendelkeznek, a felépítés révén azonban sebességben is elfogadhatót nyújtanak.

Az Intel terveivel az nVidia szerint a következő a probléma: a grafikus chipek kiegészítése az általános célú magokkal szintén nem jelent előrelépést a teljesítmény terén, emellett pedig a processzorlapka minden egyes plusz millimétere igencsak drága bővítést jelent. A rivális úgy véli, hogy a CPU-magokkal fontos kiegészítést nyújtanak a programozhatóság terén, miközben megtartják a kompatibilitást a DirectX és OpenGL technológiákkal, ám az nVidia szerint saját megoldásaik jobbak lesznek, tekintettel arra, hogy az első Larrabee termékek ereje nagyjából egy 2006-os grafikus vezérlő szintjén mozog majd.

Az Nvision konferencia első napján Jen-Hsun Huang vezérigazgató ismét megerősítette, hogy ők továbbra is a CPU kiegészítéseként gondolnak a grafikus chipekre, ezen téren pedig igyekeznek a legjobb teljesítményt nyújtani. Ismertette a Folding@home program egy speciális változatát, amely egy 24 ezer GPU-t tömörítő CUDA fejlesztői környezetre épül - ez alig 1 százaléka a projektben használt CPU-k számának, a teljesítmény mégis 1,5 petaflops, ami az eredeti ötszöröse. A mintegy 2,6 millió hagyományos PC-re támaszkodó projekt eddigi teljesítményét 288 teraflopsra becsülik.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© mamo332008. 09. 01.. 17:32||#23
Szegény Nvidiát lenyomták mint a bélyege és most kapkodnak fûhöz-fához! Hetente dobnak ki valami gagyit a piacra, aztán meg lehet, hogy még termékvisszahívás is lesz belõle! (és még az ATI-ra mondták, hogy melegedik!)
© dez2008. 08. 27.. 23:30||#22
"Az Intel terveivel az nVidia szerint a következõ a probléma: a grafikus chipek kiegészítése az általános célú magokkal szintén nem jelent elõrelépést a teljesítmény terén, emellett pedig a processzorlapka minden egyes plusz millimétere igencsak drága bõvítést jelent."

Ezt éppenséggel szintén a Fusionnal kapcsolatban mondták. (A Larrabee egyébként sem "a grafikus chipek kiegészítése az általános célú magokkal", hanem - kövér vektoregységgekkel ellátott - általános magokból álló grafikus chip.)

Amúgy bulváros az egész cikk. Õk csak elmondták a véleményüket - nagyrészt tényeket - a rendezvény miatt érdeklõdõ újságíróknak. Mellesleg pl. az Intel mérnökei sem ritkán mondja el a véleményét a többiekrõl, saját blogjaikban.
© gybfefe2008. 08. 27.. 12:55||#21
Abból nem lesz pénzük további fejlesztésekre. Én már annak is örülnék ha egy 7600gt-re amire ráírják hogy hdtv nem úgy kéne fölkutatni a megvásárolható lejátszó programukat, vagy kilopni a powerdvd driverét, hogy aztán egy 2.8-as petykán tovább szaggasson 😞
© Sanyix2008. 08. 27.. 08:44||#20
Nemtudom, én 2 éve használtam elõször ati kártyát linux alatt, semmi gond nem volt, ment a hw gyorsítás, egyszerû is volt telepíteni a drivert.
© sh4d0w8082008. 08. 27.. 08:41||#19
Én azt nem vágom, hogy a G200-ak fõtervezõje miért dolgozik még mindig a cégnél... 😄

Ghotler: én még anno a Radeon 8500-nál váltottam ATi-ra, manapság már linuxban utazom, de semmi pénzért nem vennék nV kártyát. Nekem semmi gondom nincs az ATi X800GTO-val, van 3D gyorsításom, van mûködõ TV-outom - mi kell még?
© Abu852008. 08. 27.. 08:29||#18
A Linux-osok mostanában fõleg Radeont vesznek ... Ennek az az oka, hogy Open Source lett a driver rá, amire már a 3dfx kapitulálása óta várnak a pignvin imádók.<#vigyor>
© Ghotler2008. 08. 27.. 03:23||#17
Csak egy dolog van amiért nem kedvelem az ATi-t és az az hogy olyan szar, húgy már elnézést driverokat csinálnak Linuxra hogy az nem lehet igaz, aki Linuxot használ és volt már ATi-ja az tudja mirõl beszélek. Nos én ezért teszem le a voksomat az Nvidia mellett.
© Aspirin2008. 08. 26.. 23:06||#16
Lassan nekifoghatnának a "csoda-driverek" mellet böcsületes supportot biztosítani a korosodó, de még sok helyütt strapabíró chipjeik (pl. nForce3) számára a Pista vagy a 7 alá. Mert a 2.6-os linux kernelektõl alapból ott a támogatás 😄
© who am I 72008. 08. 26.. 19:20||#15
Mert játékiparban nincs.A jelenben végképp és a jövõre nézve se sok.
© scoorn2008. 08. 26.. 15:58||#14
A Larrabee - nek nem látom sok értelmét, az Nvidia pedig sz@r helyzetbe fog kerülni ha nem változtat a hozzáállásán.