SG.hu·

nVidia: GT300 részletek

Az nVidia ismertette a következő generáció legerősebb képviselőjének specifikációját, ebből pedig arra következtethetünk, hogy ütős kis fejlesztést hoztak össze, amely még idén megérkezhet.

Az utóbbi hetekben az AMD aratott mind a hírekben, mind pedig a kézbe vehető termékek terén, hiszen bemutatták a Radeon HD 5000 család első tagjait, ezeket pedig rögtön követte a kétchipes zászlóshajó. Úgy tűnt, hogy az nVidia ezúttal nem tud majd labdába rúgni, hiszen alaposan lemaradva, és valószínűleg gyengébb megoldással tudná csak követni riválisát, ám most végre ők is szolgáltak némi hírrel saját fejlesztésükről.



A Fermi kódnéven fejlesztett GT300 a következőképpen fest: az új grafikus vezérlő natív támogatást nyújt a C [CUDA], a C++, a DirectCompute, a DirectX 11, a Fortran, az OpenCL, az OpenGL 3.1 és OpenGL 3.2 technológiákhoz, ezzel pedig az első olyan megoldás, amely jelentős sebességvesztés nélkül megbirkózik majd a C++ feladatokkal is. A 40 nanométeren készülő chip 3 milliárd tranzisztort tartalmaz, amely több mint kétszeres ugrást jelent a jelenlegi generáció legerősebb példányaihoz képest, ezt pedig 384 bites memóriainterfész, 512 CUDA-mag (shader egység), 1 MB elsőszintű, illetve 768 kB egyesített másodszintű gyorsítótár egészíti majd ki.

A memória terén egyértelmű, logikus választás a GDDR5, amelyből akár 6 GB-ot is rápakolhatnak majd egyetlen kártyára, maga a vezérlő pedig natív módon támogatja az új típusú memóriát, ami beépített ECC-funkciókat is jelent. Pontos órajeleket az nVidia egyelőre még nem közölt, ezt azonban a megjelenéshez közeledve minden bizonnyal pótolják majd - nem véletlen azonban, hogy Enrico Fermi nevét választották kódnév gyanánt, hiszen az olasz fizikus annak idején a nukleáris reaktor kifejlesztésében játszott nagy szerepet, az nVidia pedig egyszerűen reaktorként jellemzi saját fejlesztését - amelynek selejtaránya állításuk szerint sokkal jobb, mint amiről korábban olvashattunk.

A cég szerint az új chipeket még az év vége előtt, novemberben, vagy decemberben dobják majd piacra - ezzel a vártnál szorosabb versenyt kezdeményezhetnek majd az AMD-vel szemben.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© Sir Ny2009. 10. 04.. 09:28||#103
"Ebbe az nvidia vagy belebukik, vagy nagyot fog kaszálni!"

köszönjük Emese, most aztán jól megmondtad a tutit.
© kicsizoz2009. 10. 04.. 06:55||#102
OFF
Ha readswift-et valaki az elején kitiltotta volna, nem lenne így teleszemetelve a topik, hamarabb végigolvastam volna... :)
No ezért is baj, hogy itt tart a magyar foci, az emberek szurkolási hajlamukat olyan hétköznapi dolgokon élik ki, mint egy HW gyártó (ez nagyon gáz).
ON
Ebbe az nvidia vagy belebukik, vagy nagyot fog kaszálni!
OFF
© BlackRose2009. 10. 03.. 19:02||#101
Nem komplett a kérdés... nem létezik olyan, hogy "melyik a jobb?" csak olyan létezik, hogy "adott feladatra adott feltételek melett melyik a jobb?"

Az ami nekem jobban megfelel az fCPU + cGPU :) persze a jelenlegi esetben az i7+Fermi lenne az amivel nagyon meg lennék elégedve vagy akár az i9+Fermi (nemsokára), de ez túl sok pénz ezért amit én magam célzok most egy Fermi-- (nem a top hanem a középkategória mint pl. a 9600GT a 9 soroyatnál vagy a GT260 a 200-as sorozatnál) ehhez a Core2 Quad-hoz ami van, amikor meg majd kijön a Sandy Bridge akkor majd lesz teljes gép csere addig nem mert nem sok értelme van... (újat venni egy dolog, meglévõ hardvert cserélni már más dolog). Ami viszont a Larrabee-t illeti szerintem szép általános megoldás lesz ezen a területen amelyiken most az nVidia lépett elsõnek de nem hiszem, hogy a felsõ kategóriában az nVidia megoldásaival versenyezni fog. Tehát az inkább majd az integrált olcsobb megoldásknál lesz a bomba, és az jó lesz, de nem fogja kiszolgálni majd az igazán igényes felhasználókat. Ami az AMD/ATI-t illeti majd meglátjuk hiszen õk is ebben az irányban gondolkodnak csak esetleg lépéshátrányban vannak... ahogy mondtam én azt szeretném ha mindnek jól sikerülne mert a jövõ gyorsabban jön ha a fejlesztéseket többen végzik és sok mindent megosztanak mint ha csak egy valakitõl kell mindent várni. Kár, hogy nincs még néhány cég amely ezen a területen nagyot alkot. Tehát mégegyszer én nem vagyok egyik megoldás ellensége sem, csak éppen azt gondolom, hogy az nVidia volt az aki elsõnek meglépte azt a lépést ami ugyan elsõ látásra kockázatosnak látszik, de az igazán kockázatos lépés a már meglévõ továbbhúzása... ideje volt lépni és az nVidia ezt megtette, hiszen már a CUDA sikerével õ volt a legjobb helyzetben... persze koránt sem biztos, hogy a jövõben õ fogja a legjobb megoldást szállítani, (az mp3 lejátszót sem az Apple lépte meg elõször, de most ugye urajla a piacot) de mindenesetre jó úton van, hogy a jövõben viszonylag magas és valós elvárásaink legyenek a fejlesztéseik iránt. Röviden, bizonyították, hogy jelenleg tudják hol is lesz a közel és középjövõben a tûz.
© Sir Ny2009. 10. 03.. 17:28||#100
100
© nkmedve2009. 10. 03.. 16:51||#99
Na miután másodszor is elolvastam a magyarázatot, rájöttem mire érted azt az fCPU-t<#smile>.
De nem helyes, a Larabee egy új arhitektúra, amit elsõdlegesen HPC szegmensbe tervez az Intel (leginkább x86 utasitáskészlettel rendelkezõ GPGPU-nak mondanám), CPU-nak valószinûleg nagyon sokáig nem lesz alkalmas.
Az AMD Fusion ezzel szemben egy AMD CPU (Bulldozer) és egy GPU egy lapkán. Õk tudtommal egyelõre nem terveznek Larabee-hez hasonló terméket. Nem is lenne rá kapacitásuk, Intel is valószinûleg nagyon sokat fog a Larabeen bukni amig az valóban használható lesz.

A felsorolt lehetõségeket nem teljesen értem. Hogyha általános számitásra kell gép és nem számit a pénz, akkor valószinûleg i7+Fermi lesz a nyerõ egyelõre, játékra viszont Phenom+58xx.

Kicsit más, de böki a csõrömet:

Nem tudjuk, hogy játékok alatt fog muzsikálni az 5800-as széria Phenom procival (nem láttam még olyan tesztet), mert mindenhol i7-tel tesztelték, pedig régebbi tesztekben magasabb felbontáson legtöbb helyen a Phenom gyorsabb volt.

Nekem valahol sántit az, hogy a 4GHz-es i7 nem tudja kihajtani rendesen az 5870-et. Legtöbb helyen ezt mondják, de szerintem valami driver dolog lehet a háttérben. Érdekes módon egy 4890CF vagy 4870X2 CFX rendszernél (ami gyorsabb) magasabb felbontásnál alig lehet CPU limitrõl hallani, 5870-nél viszont valahogy elõjött. Tesztet akarok más CPU-val és újabb driverrel, addig nem tudom elfogadni ezt a NEMHAJTYAKI maszlagot.
© readswift2009. 10. 03.. 16:02||#98
szerintem az AMDnek nincs pénze fCPUra.
Megtérülése sem lenne.
© ozric2009. 10. 03.. 15:47||#97
Sorry, elrontottam a 3. sort:
3. fCPU + GPU (pl. AMD Fusion + nVidia GTX 295)

Mellesleg érthetõ az ATI lépése, mert van fCPU-ja (AMD Fusion). Szintén érthetõ az nVidia-é is, mert neki nincs semmilyen CPU-ja, nem hogy fCPU-ja.
© ozric2009. 10. 03.. 15:41||#96
"azt hiszem ez egyértelmûen azt mutatja, hogy ebben a pillanatban az nVidia az aki jobb lépést tett"

Ez koránt sem biztos. Az ATI 5xxx valóság, az nVidia GT300 meg papírtermék, ami nagy valószínûség szerint idén az is marad. Ha meg 2010-et nézzük, akkor még csak körvonalakban sem igaz az állításod. Ugyanis pár hónapnyi elõny nem elõny.

Szerinted melyik a jobb kombináció?
1. CPU + GPU (pl. Intel i7 + ATI 5xxx)
2. CPU + cGPU (pl. ATI Phenom + nVidia GT300)
3. fGPU + GPU (pl. AMD Fusion + nVidia GTX 295)

Magyarázat:
CPU: "hagyományos" CPU
fCPU: CPU Fusion: AMD Fusion vagy Intel Larabee
GPU: klasszikus GPU + "lassabb" GPGPU
cGPU: compute GPU (nVidia terminológia a Fermi-re)

Szánékosan nem írom az fCPU + cGPU párost mert az egyértelmûen jobb mindnél.
© readswift2009. 10. 03.. 14:57||#95
-most gyújtott rá, senkit nem kinált meg , mindjál rendel magának sört. Igazi kocsmahangulat lesz estére :D
© ilf6672009. 10. 03.. 14:40||#94
ennyit érdemelsz kismajom