Gyurkity Péter

nVidia: gondok a GT300 grafikus chipekkel

Az nVidia a tervek szerint decemberben (bő két hónappal az AMD után) dobná piacra következő generációs grafikus vezérlőjét, ám a gyártási gondok miatt előfordulhat, hogy 2010-re csúszik a megjelenés.

Az elmúlt napokban egyszerre több hír is befutott az nVidia háza tájáról, amelyek kivétel nélkül a következő generációt képviselő, egyelőre GT300 kódnéven készülő grafikus chip sorsával foglalkoznak. Azt már tudjuk, hogy a cég nem tulajdonít nagy jelentőséget a DirectX 11 technológiának (talán saját problémáikat igyekeznek ezzel elleplezni), ehelyett az általános célú számításokra helyezik a hangsúlyt, ám most nagyon úgy tűnik, hogy a selejtarány jelenti majd a legnagyobb gondot.

Az első jelentés szerint a vállalat szeptember elején jutott hozzá az első tesztpéldányokhoz, a TSMC ugyanis leszállította a 40 nanométeres gyártástechnológiával készült darabokat. Ez alapján arra számíthatnánk, hogy decemberben pozícióba kerülnek, vagyis megkezdődhetnek a nagyobb szállítások és az érdeklődők (előtte elsőként nyilván a partnercégek) hozzájuthatnak majd azokhoz. Az még nem világos, hogy a kizárólag belső tesztelésre, avagy a partnereknek is szánt példányok kerültek a céghez, ám a jelek szerint ennél sokkal nagyobb gondjaik akadnak az új vezérlőkkel.

Bár a TSMC egy szeptember eleji jelentés szerint javította a selejtarányt a vadonatúj 40 nanométeres csíkszélesség esetében (elérve a 60 százalékot a gond nélkül működő példányok esetében, ami már szép eredmény), a GT300 meglehetősen nagy mérete miatt (452 négyzetmilliméter) igen alacsony adatokat produkál. Az új chipből alig 104-105 fér el egy 300 mm-es szilíciumostyán, ami egyes becslések szerint inkább 30 és 50 százalék közötti eredményt sejtet, a friss hír szerint viszont a megkapott 4 ostyányi chipből alig hét működött gond nélkül, ami 98 százalékos selejtaránynak felel meg.

Ezek alapján nem túl valószínű, hogy decemberben megindulhat az új fejlesztés térhódítása - meglátjuk, piacra tudják-e dobni megoldásukat, addig pedig az AMD szabadon garázdálkodhat a piacon a Radeon HD 5000 sorozat első példányaival.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • torjoz #105
    Gondolom akik full dx11 es gamékat vár, az teljesen tisztában van a játékfejlesztés minden részletével!
  • A1274815 #104
    Drivert az ATI(AMD) írja, ha ők akarják, hogy kihasználják, akkor kifogják használni.
  • [HUN]FaTaL #103
    FSXre nem mondta senki, hogy DX10. Az SP2vel került bele az opció, és ott is PREVIEW módnak hívják, 1-2 DX10 effekt biztos, hogy van benne, nem véletlen nem kompatibilis az addonok jó része csak a DX9 móddal. Senki nem mondta, hogy full dx10. Akkor lesz full dx10 egy játék, ha DX9 módban el se indul, de ez még elég soká lesz szvsz. Crysis meg önmagában egy vicc. :D
  • A1274815 #102
    "A dx10, dx10.1, dx11-et nem kell külön megírni!"

    Ezt légyszi fejtsd ki!
  • HM #101
    "akkor: támogasd a DX9-et, a DX10-et, a DX10.1-et meg majd most a DX11-et."

    A dx10, dx10.1, dx11-et nem kell külön megírni! Ezért amit ezután írtál értelmetlen.
  • nkmedve #100
    "Igen ugyan azokat. Különben ha anyíra Unified Shader nem lenne mindegy?"

    AMD-nél lesz külön egység erre ami a Xenos rendszeréhez lesz hasonló (persze a kompatibilitásra majdnem semmi esély), tehát azt kell használni, NV és Larabee úgy tudom emulálni fogja shaderekkel ami megkérdőjelezi a sebességüket DX11 alatt. Arra voltam kiváncsi, hogy OpenGL ki tudja ezt a spéci egységet használni, vagy csak shaderekkel dolgozik?
  • Evil Merodak #99
    Az ATI fanok irígységükben valószínűleg meg fognak kövezni, de sikerült felülkerekednem a túlmelegedő HD 4850-es problémáján. Kiderült hogy nem a VGA volt rossz hanem az alaplap azóta gond nélkül működik.

    De ettől még utálom a Gigabyte-ot!
  • A1274815 #98
    "Ez az Elevator Shader ugyan azt a Tesszellátor egységet fogja használni, mint a D3D11, vagy inkább emulálni fogja?"
    Igen ugyan azokat. Különben ha anyíra Unified Shader nem lenne mindegy?

    "Tudom, hogy a kompatibilitás megtartása miatt a 3.0-t nem tudták annyira átdolgozni ahogy kellett volna (mint DX9-DX10 váltás) igy a fejlesztőknek sokkal nehezebb dolguk van rá fejleszteni, mint az újabb DX-ekre."

    Ja csak most ha rendesen akarsz DX-eket és kártyákat kihasználni, akkor: támogasd a DX9-et, a DX10-et, a DX10.1-et meg majd most a DX11-et.
    OpenGL 3.1-ben már rendesen átvannak szabva, de egy kompatibilitási bittel kérheted, hogy a glBegin(), glEnd() is még működjön (azért valjukbe ezek néha jól jönnek). Szerintem a 4 API támogatása nehezebb, mint az OpenGL Extekkel bajlódni. Feltéve ha vannak már Extek (ATI végre lépett ez ügyben, úgy hogy a Full DX10.1 featureök márt elérhetők OpenGL alatt is, NV alatt meg a DX10 még a Vista megjelenése előtt megvolt OpenGL alatt).

    Amúgy az ATI driverben találhatsz egy stringet ami előre vetit néhány teszt állapotban lévő dolgot (GL_EXT_gpu_shader5).
  • nkmedve #97
    ez a #95-re ment válaszként (vagy inkább kérdések soraként)
  • nkmedve #96
    És ezek a legújabb OpenGL-es kiterjesztések mikor lesznek elérhetőek? Már 3.2ben benne vannak? Nekem valahogy úgy tűnik, hogy itt dobálóznak a verziókkal, de a GPU-kon látható változás nem lesz attól, hogy egy újabb OGL API-t támogatnak.
    Ez az Elevator Shader ugyan azt a Tesszellátor egységet fogja használni, mint a D3D11, vagy inkább emulálni fogja?
    Régebb jó volt az OpenGL, de mostanában alig hallani róla. Tudom, hogy a kompatibilitás megtartása miatt a 3.0-t nem tudták annyira átdolgozni ahogy kellett volna (mint DX9-DX10 váltás) igy a fejlesztőknek sokkal nehezebb dolguk van rá fejleszteni, mint az újabb DX-ekre.