x86 chipet fejleszt az nVidia

Jelentkezz be a hozzászóláshoz.

#21
Pedig kihat az Intel chipset piaci részesedésére (még nagyobb lehetne) az IGP-inek gyenge teljesítménye.

#20
"Ha a gpu magok eleg gyorsak es x86 alapuak"

Van egy 3., nem túl elhanyagolható gyakorlati szempont is: a méret. (És ennek kapcsán mat.szám.telj./mm2.) x86 alapú magokból nem lehet többszázat egymás mellé tenni (még talán 10nm-en sem)...

Az Intel-féle új, x86 alapú grafikus chip, a Larrabee magjainak a száma is ilyen 32-64-es nagyságrendû, és talán még egy középkategóriás ATI/Nvidia GPU-val sem veszi fel a versenyt grafikus teljesítményben... Most már nem is mint grafikus chip reklámozza az Intel, hanem GPGPU alkalmazásokra. De még ott sem biztos, hogy igazán sikeres lesz. (Bár itt az x86-os alap nyomós érv, de ha gyenge a teljesítmény, nem ez számít.)

#19
Több év egy új mikroarchitektúra piacra kerülése, az elsõ tervektõl kezdve. Szóval nincs kizárva a dolog most sem. Fõleg, hogy egyre nagyobb a sávszél igénye a GPU-knak, amit egyre több memória-csatornával szolgálnak ki, (igaz, a DDR5 sebessége által ezt átmenetileg vissza lehetett venni), ami a nyák árában is megmutatkozik (egyre többrétegû kell). Az XDR2 ram jóval kevesebb vezetékkel is jóval nagyobb sávszélt biztosít.

#18
Az AMD nagyon "szimpi" dolgokat csinál,csak így tovább!!!Ami az nVidia x86-os fejlesztését illeti,egy harmadik "ellenfél" mindenkinek fog kedvezni,mint ár,mint teljesítmény oldalán:-)
#17
amd féle SSE kell nem belterjes compileres intel féle , azé .

jozing
#16
a kvantum gépeket 10 éve ígérgetik. a legtovább mûködõ kvantum CPU is csak 1sec-ig ment. ha lesz is 3 éven belül ilyen (amit nagyon erõsen kétlek) akkor se otthoni gépekbe megy elõször. az árát tekintve biztos nem oda.

az intel GPU fejlesztése azért nem megy, mert sztem nem akarnak. GMA4500 eleve gyengének lett tervezve. ezek csak azért léteznek hogy legyen DVI kimenet hátul a lapon. többet nem is nagyon tudnak. az intel mind pénzben mind szakértelemben lovon van. csak gondolom a gazadasági érdekek mást kívánnak.

az AMD is csak az ATi-val terveztet GPU-kat. ott se a CPU részleg adja magábol a Hd4800-sokat 😄

readswift: miét is lenne jó kihagyni az intelt? hogy ne legyen verseny? minnél több a résztvevõ annál jobb. inkább örülni kéne hogy ennyi év után mind a három nagy valami nagyszabású, gigamegabrutálon szorgoskodik.

Gigabyte EP35-DS3R, Intel Core2 Duo E4500, Kingston HyperX DDR2 800MHz 2x1GiB, BFG[Tech] GeForce 9600GT OC2 512MiB, WesterenDigital Caviar SE16 320 GB, Corsair VX450 PSU, Coolermaster 690 ház,

#15
Már rég nekiálltak a fejlesztésnek, egy "pöppet" le vagy maradva, és az olvasás sem megy neked. <#banplz>
#14
hja ez 2005ös, benéztem :p

#13

Other than NVIDIA and ATI who are some of the possible end users of XDR2?
Basically anybody who produces graphics chips. NVIDIA and ATI make up a huge percentage of the market. Their combined total dwarfs any other market shares. But we clearly have partnership with companies like S3 and SGI and want to continue those relationships. We feel that XDR2 could bring value to their products as well. Those are the ones off the top of my head but anyone who plays in the graphics space.

Sanyix
#12
az nvidia annyira nincs jóban a rambussal, hogy az utóbbi pereli az elõbbit.

Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)

#11
Az AMD-nek már nincs anyagi gondja, most már a gyártás miatt kell aggódnia, hogy a globalfoundry jól mûködjön.

#10
terabyte initiative, persze <#alien>

#9
már évek óta létezik rambus gigabyte initiative, az amd jóban van a rambusal a többiek nemtom, mindenesetre az intelt jólenne cakkompakk kihagyni a buliból <#buck>

#8
A legnagyobb problémát per pillanat a memória sávszélesség jelenti, ami a GPU-nál a 8-szöröse a CPU-khoz képest.
i7 32GBps
GTX 285 159GBps

Ráadásul a memória hozzáférést is másképpen kell szervezni, ezért a CPU+GPU magokat nem lesz egyszerû megtervezni, lehet, hogy a CPU-knak és a GPU-knak külön memóriavezérlõ kell majd.
#7
Ezt a lépést már régen fontolgatja az nVidia, de eddig nem szánták el magukat. A jövõ valószínûleg az egyre többet tudó többmagos CPU-ké, ha az nVidia a játékban kíván maradni, akkor neki x86 CPU magot kell fejlesztenie, az intel-nek GPU magot (igazit...), az AMD-nek megvan mind a kettõ, nekik csak össze kell pakolni a kettõt.

Ha az AMD-nek nem lennének komoly anyagi gondjai, akkor biztos befutóra venném, mert az nVidia nem fog tudni idõben ütõs CPU-t, az intel pedig GPU-t fejleszteni. Az intel már évek óta próbálkozik, de nem megy nekik.
#6
"különben hajrá, csak drukkolni tudok nekik. kíváncsi leszek majd, hogy lesz-e majd közvetlenül a cpu-ra dugható 8-tûs kiegészítõ tápcsati, vagy elég lesz a 6 tûs is.. jaj de aljas vagyok.."

Most 4 tus van es az alaplapra kell dugni. Mar nagyon regen az alaplap allitja elo a cpu tapfeszultseget a tap 12V-jabol.

"belépõszintû grafikus gyorsítók lesznek ezek, nem bazinagy erõmûvek."

Nincs kulonbseg. Ha egy gyar tud egyfajtat gyartani, akkor ugyanabba a tokba befer a nagyobbik valtozat is csak melegebb lesz. Ha a gpu magok eleg gyorsak es x86 alapuak, akkor alapvetoen nem is kell kulon cpu. (az atom is csak egy onallo larrabee magnak indult)

"akkor nehezen képzelhetõ el egy olyan termékük, ahol egy ilyen GPU-t párosítanak egy még csak terv elõtti állapotú saját x86-os CPU-val..."

Most ugy nez ki, hogy a via x86-osat fogjak hasznalni. Mas megoldas nincs arra, hogy x86 licenszhez jussanak. Ket chipet kozos tokba rakni meg nem nagy feladat. A lenyeg, hogy a gpu sokcsatornas memoriavezerlojet hasznalja a cpu is es akkor kapnak egy egyseges, de gyors rendszert. Kulon tokban ugyan, de ehhez nagyon hasonlo az xbox360 felepitese is. Ott negy chip van, egy alaplapi deli hid, egy framebuffer, egy gpu es egy cpu. Ezt a negyet eleg kis fogyasztas eseten rakhatjak akar egy tokba is.
#5
belépõszintû grafikus gyorsítók lesznek ezek, nem bazinagy erõmûvek.

Munkaállomás: C64 64K RAM 5,25\" floppy & Dataset Szerver: XT8086 640K RAM 10 MB MFM HDD 12\" Hercules Monitor DOS 1.0 Megy rajta a Crisys, mint az állat!

#4
a John Peddie Research helyett kérdezhették volna a waterman research institute-ot is. én is simán megmondtam volna, hogy el fognak tûnni az alaplapi chipsetbe integrált gpu-k. aki elolvas 6 cikket a mai cpu-król meg lát 2 cpu roadmapot, annak csak akkor nem világlik ez a szemébe, ha seggével olvasott, mint a ventura.
különben hajrá, csak drukkolni tudok nekik. kíváncsi leszek majd, hogy lesz-e majd közvetlenül a cpu-ra dugható 8-tûs kiegészítõ tápcsati, vagy elég lesz a 6 tûs is.. jaj de aljas vagyok..

\"The voices are back... Excellent.\"

#3
Azért ha azt nézzük, hogy a jelenlegi vonaluk a monolitikus GPU készítése (legalábbis bevallásuk szerint a GTX 300 is ilyen lesz); akkor nehezen képzelhetõ el egy olyan termékük, ahol egy ilyen GPU-t párosítanak egy még csak terv elõtti állapotú saját x86-os CPU-val...
#2
Mire ezek nekiállnak procit fejleszteni, arra már kvantumgépek lesznek... csak egy pöppet vannak lemaradva.

jozing
#1
a birodalom visszavág. lehet GPU piacon ezért csendesettek el? no mind1, egy harmadik fél a CPU iparágban oda fog vágni.

Gigabyte EP35-DS3R, Intel Core2 Duo E4500, Kingston HyperX DDR2 800MHz 2x1GiB, BFG[Tech] GeForce 9600GT OC2 512MiB, WesterenDigital Caviar SE16 320 GB, Corsair VX450 PSU, Coolermaster 690 ház,