SG.hu·

nVidia: gondok a GT300 grafikus chipekkel

Az nVidia a tervek szerint decemberben (bő két hónappal az AMD után) dobná piacra következő generációs grafikus vezérlőjét, ám a gyártási gondok miatt előfordulhat, hogy 2010-re csúszik a megjelenés.

Az elmúlt napokban egyszerre több hír is befutott az nVidia háza tájáról, amelyek kivétel nélkül a következő generációt képviselő, egyelőre GT300 kódnéven készülő grafikus chip sorsával foglalkoznak. Azt már tudjuk, hogy a cég nem tulajdonít nagy jelentőséget a DirectX 11 technológiának (talán saját problémáikat igyekeznek ezzel elleplezni), ehelyett az általános célú számításokra helyezik a hangsúlyt, ám most nagyon úgy tűnik, hogy a selejtarány jelenti majd a legnagyobb gondot.

Az első jelentés szerint a vállalat szeptember elején jutott hozzá az első tesztpéldányokhoz, a TSMC ugyanis leszállította a 40 nanométeres gyártástechnológiával készült darabokat. Ez alapján arra számíthatnánk, hogy decemberben pozícióba kerülnek, vagyis megkezdődhetnek a nagyobb szállítások és az érdeklődők (előtte elsőként nyilván a partnercégek) hozzájuthatnak majd azokhoz. Az még nem világos, hogy a kizárólag belső tesztelésre, avagy a partnereknek is szánt példányok kerültek a céghez, ám a jelek szerint ennél sokkal nagyobb gondjaik akadnak az új vezérlőkkel.

Bár a TSMC egy szeptember eleji jelentés szerint javította a selejtarányt a vadonatúj 40 nanométeres csíkszélesség esetében (elérve a 60 százalékot a gond nélkül működő példányok esetében, ami már szép eredmény), a GT300 meglehetősen nagy mérete miatt (452 négyzetmilliméter) igen alacsony adatokat produkál. Az új chipből alig 104-105 fér el egy 300 mm-es szilíciumostyán, ami egyes becslések szerint inkább 30 és 50 százalék közötti eredményt sejtet, a friss hír szerint viszont a megkapott 4 ostyányi chipből alig hét működött gond nélkül, ami 98 százalékos selejtaránynak felel meg.

Ezek alapján nem túl valószínű, hogy decemberben megindulhat az új fejlesztés térhódítása - meglátjuk, piacra tudják-e dobni megoldásukat, addig pedig az AMD szabadon garázdálkodhat a piacon a Radeon HD 5000 sorozat első példányaival.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© torjoz2009. 09. 23.. 22:19||#105
Gondolom akik full dx11 es gamékat vár, az teljesen tisztában van a játékfejlesztés minden részletével!
© A12748152009. 09. 21.. 20:04||#104
Drivert az ATI(AMD) írja, ha õk akarják, hogy kihasználják, akkor kifogják használni.
© [HUN]FaTaL2009. 09. 21.. 19:34||#103
FSXre nem mondta senki, hogy DX10. Az SP2vel került bele az opció, és ott is PREVIEW módnak hívják, 1-2 DX10 effekt biztos, hogy van benne, nem véletlen nem kompatibilis az addonok jó része csak a DX9 móddal. Senki nem mondta, hogy full dx10. Akkor lesz full dx10 egy játék, ha DX9 módban el se indul, de ez még elég soká lesz szvsz. Crysis meg önmagában egy vicc. :D
© A12748152009. 09. 21.. 18:06||#102
"A dx10, dx10.1, dx11-et nem kell külön megírni!"

Ezt légyszi fejtsd ki!
© HM2009. 09. 21.. 16:30||#101
"akkor: támogasd a DX9-et, a DX10-et, a DX10.1-et meg majd most a DX11-et."

A dx10, dx10.1, dx11-et nem kell külön megírni! Ezért amit ezután írtál értelmetlen.
© nkmedve2009. 09. 21.. 16:26||#100
"Igen ugyan azokat. Különben ha anyíra Unified Shader nem lenne mindegy?"

AMD-nél lesz külön egység erre ami a Xenos rendszeréhez lesz hasonló (persze a kompatibilitásra majdnem semmi esély), tehát azt kell használni, NV és Larabee úgy tudom emulálni fogja shaderekkel ami megkérdõjelezi a sebességüket DX11 alatt. Arra voltam kiváncsi, hogy OpenGL ki tudja ezt a spéci egységet használni, vagy csak shaderekkel dolgozik?
© Evil Merodak2009. 09. 21.. 14:35||#99
Az ATI fanok irígységükben valószínûleg meg fognak kövezni, de sikerült felülkerekednem a túlmelegedõ HD 4850-es problémáján. Kiderült hogy nem a VGA volt rossz hanem az alaplap azóta gond nélkül mûködik.<#wave>

De ettõl még utálom a Gigabyte-ot!
© A12748152009. 09. 21.. 14:32||#98
"Ez az Elevator Shader ugyan azt a Tesszellátor egységet fogja használni, mint a D3D11, vagy inkább emulálni fogja?"
Igen ugyan azokat. Különben ha anyíra Unified Shader nem lenne mindegy? <#ravasz1>

"Tudom, hogy a kompatibilitás megtartása miatt a 3.0-t nem tudták annyira átdolgozni ahogy kellett volna (mint DX9-DX10 váltás) igy a fejlesztõknek sokkal nehezebb dolguk van rá fejleszteni, mint az újabb DX-ekre."

Ja csak most ha rendesen akarsz DX-eket és kártyákat kihasználni, akkor: támogasd a DX9-et, a DX10-et, a DX10.1-et meg majd most a DX11-et.
OpenGL 3.1-ben már rendesen átvannak szabva, de egy kompatibilitási bittel kérheted, hogy a glBegin(), glEnd() is még mûködjön (azért valjukbe ezek néha jól jönnek). Szerintem a 4 API támogatása nehezebb, mint az OpenGL Extekkel bajlódni. Feltéve ha vannak már Extek (ATI végre lépett ez ügyben, úgy hogy a Full DX10.1 featureök márt elérhetõk OpenGL alatt is, NV alatt meg a DX10 még a Vista megjelenése elõtt megvolt OpenGL alatt).

Amúgy az ATI driverben találhatsz egy stringet ami elõre vetit néhány teszt állapotban lévõ dolgot (GL_EXT_gpu_shader5).
© nkmedve2009. 09. 21.. 12:22||#97
ez a #95-re ment válaszként (vagy inkább kérdések soraként<#vigyor4>)
© nkmedve2009. 09. 21.. 12:20||#96
És ezek a legújabb OpenGL-es kiterjesztések mikor lesznek elérhetõek? Már 3.2ben benne vannak? Nekem valahogy úgy tûnik, hogy itt dobálóznak a verziókkal, de a GPU-kon látható változás nem lesz attól, hogy egy újabb OGL API-t támogatnak.
Ez az Elevator Shader ugyan azt a Tesszellátor egységet fogja használni, mint a D3D11, vagy inkább emulálni fogja?
Régebb jó volt az OpenGL, de mostanában alig hallani róla. Tudom, hogy a kompatibilitás megtartása miatt a 3.0-t nem tudták annyira átdolgozni ahogy kellett volna (mint DX9-DX10 váltás) igy a fejlesztõknek sokkal nehezebb dolguk van rá fejleszteni, mint az újabb DX-ekre.