SG.hu·

Bízik grafikus chipjeiben az nVidia

Az nVidia első embere továbbra is bízik saját fejlesztéseik jövőjében, 15 évnyi növekedést jósolva a különálló grafikus chipek számára. Az AMD és az Intel hibrid tervei szerinte félelmeken alapulnak.

Jen-Hsun Huang elnök-vezérigazgató a DigiTimes munkatársának adott interjúban számos kérdésre adott választ, ezek közül némelyik betekintést nyújt a vezető elképzeléseibe és a cég terveibe. Kiderült többek között, hogy továbbra sem foglalkoznak a hibrid fejlesztésekkel, ehelyett az egychipes grafikus kártyák, a hagyományos vezérlők és a chipkészletek tökéletesítésére koncentrálnak a jövőben.

Ez utóbbi azért is érdekes, mert korábban olyan pletykák láttak napvilágot, miszerint az nVidia kiszállna a chipkészletek szegmenséből. Ezt most az elnök-vezérigazgató cáfolta, hozzátéve, hogy saját gyártósor vásárlását, vagy felépítését továbbra sem tervezik. Enélkül is nagyon jól teljesítenek, nem látják szükségét egy ilyen beruházásnak, amire az AMD-t hozzák fel példának - szerintük utóbbi is megszabadulna üzemeitől, hogy lefaragjon a kiadásokból. A 40 nanométeres gyártástechnológia alkalmazását annak kiforrottsága esetén tervezik, ami azt jelzi, hogy kicsit még várnak a TSMC fejlesztésének átvételével.

Ami a noteszgépekben felbukkant hibás vezérlőket illeti, igyekeznek orvosolni a problémát. Ez a nyilatkozat szerint tervezési problémákból adódott, és elsősorban túlmelegedési gondokat okoz. Hajlandóak azonban a darabonként 20 dollárba kerülő grafikus chipek kijavítására akár 200 dollárt elkölteni, hogy minél előbb megoldást nyújtsanak. Huang megjegyezte, hogy a hibák csak bizonyos noteszgéptípusok esetében jönnek elő, a felelősséget azonban nem kívánják áthárítani.

A hibrid chipekkel kapcsolatban a vezető elmondta, hogy az Intel minden bizonnyal azért erőlteti a Larrabee projektet, mert attól fél, hogy a CPU szerepe csökken majd a jövőben a GPU-hoz képest, akár még háttérbe is szorulhat mellette. Ők maguk nem tervezik x86 chipek fejlesztését, azonban a GPU-k előtt további 15 év fejlődés áll, amely nagy eredményeket hozhat magával. Szerintük a CUDA-platform sokkal jobb megoldás, mivel a párhuzamos számításokkal 10-100 százalékkal meghaladhatják egy átlagos CPU teljesítményét. Nem hisznek ugyanakkor a kétchipes grafikus kártyákban, amelyek 130-180 százalékos növekedést eredményeznek a sebességben, jóval nagyobb költségek mellett - érdekes kijelentés ez egy olyan cég részéről, amely maga is több ilyen fejlesztést dobott piacra az erő hangoztatása mellett.

A cég ezalatt új szegmensek felderítését is végzi, többek között erről is szólt az idei nVision konferencia. Az integrált chipekkel nem igazán foglalkoznak, mivel az Intel a saját chipkészletei esetében amúgy is 99 százalékos részesedéssel rendelkezik, a játékok és erőforrásigényes alkalmazások pedig amúgy is nagyobb teljesítményt követelnek meg.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© waterman2008. 09. 27.. 18:23||#17
" Lehet, de az asztalodon nem egy 333mhz-es gép van most, hanem ennek sokszorosa. A jövõben amikor egy chipben lesz egy mai csúcsgép, és ez tolja a pda-kat, akkor az asztalodon annak sokszorosa lesz megint. "

egyetlen apróságot kihagytál a logikádból. a teremnyi méretû elektroncsöves monstrumokat lenyomta egy 0.8 mhz-s 8008-as. nemcsak a mérete lesz kisebb, hanem közben a teljesítmény is nõ. viszont, ahogy feszegetjük a technológiai határokat, úgy lassul a fejlõdés is. ez az egyik. a másik, hogy általános munkavégzésre bõven elég egy mai energiahatékony chip, az elfér egy apró dobozban az íróasztal sarkán a dossziékupac alatt. tehát a jövõben én azt mondom el fognak tûnni a nagy doboz számítógépek. elõbb utóbb kihalnak az optikai meghajtók, (én speciel már csak telepítéshez használom manapság is, semmi másra). aztán jönnek majd a 2,5" ssd-k, meg bedobják a gpu mellé a chipkészlet maradékát is a cpu-ba. és így lesz pda-alaplap méretû a mostani gép, elfér majd az egész a monitor hátulján. aztán meg még késõbb elfér majd az egész egy 5 centesen és akkor már az emberi agyakba fogják rakni az egészet co-processzorként... 😊
© Carbuncle2008. 09. 26.. 19:07||#16
Már megin' csak a konkurenciát köpködik, de most csak hátulról lehet, mivel lemaradtak picit: "Nem hisznek ugyanakkor a kétchipes grafikus kártyákban".

-Ha lenne annyi pénzem, most megvenném a 4870X2 -t abban az árban is, ahogy adják. -Ugyanis ami elbánik a Crysis magas felbontású textúráival is, annál már nem kell jobb kártya (akár évekig se -> csak azért nem írtam, hogy 6-8 évig, mer' ugyebár nyakunkon a DX XI).
© Abu852008. 09. 26.. 15:52||#15
Inkább DX10.1 ... sebesség és minõség szempontjából nem árt ha párhuzamosan leeht számolni a Cube map tömböket.<#vigyor2>
© dez2008. 09. 26.. 14:33||#14
Az RT-nek különféle szintjei vannak a valósághûséget illetõen. Egyszerûbb megvalósításban nem olyan valósághû, mint egy mai GPU-s megoldás. Igaz, a tükrözõdések könnyebben lesznek vele valósághûbbek.
© dez2008. 09. 26.. 14:30||#13
A mai GPU-k nem túl optimálisak RT-re.
(Pl. egy Cell legyorsul egy GT280-at <1 TFLOPS?> RT-ben.)

Akkor mégsem érted az RT lényegét. Nem a fényforrásból követik a sugarakat (mert ahhoz iszonyú sok sugár kellene, hogy a képernyõ minden pixelére jusson, ráadásul több is), hanem a (virtuális) képernyõ pixelei felõl. (Így a korrekt neve ray-backtracing kellene legyen. 😊 ) Ha pixelenként 1 sugarat követnek vissza, akkor ugyanúgy aliasos lesz.
© dez2008. 09. 26.. 14:26||#12
ALU != mag. Egy magban sokminden más is van, nem csak ALU-k.
© A12748152008. 09. 26.. 13:28||#11
"Egyébként ha jól értem az rt mûködését, ezzel az aa is szükségtelenné válna, mert nem aliasolódna a kép."

Elvileg gyakorlatlag az egy pixelre esõ fénysugarak számától függ.
© Sanyix2008. 09. 26.. 12:25||#10
és mi lenne ha gpu ra is megírnák, és akkor nem kéne 664 db processzor csak egy quad cf hd4870 x2 kéne 😄

Egyébként ha jól értem az rt mûködését, ezzel az aa is szükségtelenné válna, mert nem aliasolódna a kép.
© A12748152008. 09. 26.. 11:38||#9
Úgy tudtam azt bizonyps Quake3 demót 20 db AMD Opetron 64-el számoltatták. Mellesleg DX10-el már globális illuminációt is csinálhatsz, ami még a ray-tracen is messzemenõen túl tesz realitást tekintve.
© JTBM2008. 09. 26.. 10:49||#8
A Ray trace problémája a felbontás. A teljesítmény igény lineárisan nõ a felbontással.
A Quake III programot megírták real time ray trace technológiával, de csak 640x480 felbontásban tudták futtani, ha jól emlékszem 2x4 magon.

Egy elfogadható felbontás az 1080p. Ez 6-szor több képpont, mint a 640x480, tehát 6-szor több teljesítmény kell neki.

De ha elkészítenek egy ray trace gyorsító magot, akkor szvsz. ez csökkenthetõ.