Gyurkity Péter

Chiplet-alapú GPU-t tervez az AMD

A méretek és a költségek növekedése miatt kényszerülnek erre, egy érdekes trükkel.

Az AMD eredetileg még a Zen 2 architektúrára épülő Ryzen 3000-sorozatnál vezette be a chiplet-alapú kialakítást, amelynek részeként tulajdonképpen több kisebb részt kapcsolnak össze, amelyek szorosan együttműködve végzik azt a munkát, amelyet a hagyományos CPU-któl elvárunk. Ezzel a megoldással sikerült alacsonyabb szinten tartani a gyártási költségeket és tovább növelni a teljesítményt, most pedig a grafikus vezérlőknél készülnek hasonlóra.

A napokban bukkant fel az interneten az a szabadalmi kérelem, amelyben már egy ilyen GPU-t írnak le részletesen, természetesen a várható akadályokkal és buktatókkal együtt. A gondot az jelenti, hogy az adott gyártástechnológián egyre bonyolultabb és nehezebb feladatot jelent a nagyobb, komplexebb egységek kialakítása, itt a node mérete és a teljesítmény fokozása komoly erőfeszítést követel meg a gyártók részéről, akik persze igyekeznek ezen tényezőket tűrhető szinten tartani, nem beszélve a selejtarányról, ami a komplexitással együtt, azzal párhuzamosan ugrik meg. A grafikus vezérlőknél komoly gondot jelent, hogy az egy-egy egységre jutó munka jóval kisebb, a hangsúly itt a párhuzamos jellegen van, vagyis el kell kerülni az egységek közötti méretes kommunikáció miatti torlódásokat, ami megbénítaná a teljesítményt.

A cég mérnökei ezt úgy hidalnák át, hogy a GPU chipletek között nagy sávszélességű elérés biztosítaná a szoros kapcsolatot, az L3-gyorsítótár folyamatos szinkronizációjára fókuszálva. A CPU viszont a maga részéről egyetlen nagy GPU-t látna, hiszen ez csak az első chiplethez kapcsolódna, amely a többi komponens felé biztosítaná az átjárást. Nagy előnyt jelentene a fejlesztők számára, hogy a programkód tekintetében mindez nem igényelne jelentős változásokat, mindössze a meghajtókat kellene módosítani, hogy azok megfelelő módon kezeljék a módosított architektúrát. Nem állítanának fel korlátokat a node-ok számát és alakját illetően sem, tehát a kliens igényeinek megfelelően számos eltérő dizájnt állíthatnának elő.

Azt egyelőre nem tudni, hogy ebből mikor és mennyiben lesz kereskedelmi termék, egyelőre annyi derült ki, hogy a TSMC a maga részéről az 5 nanométeres gyártástechnológiát szeretné felfuttatni, amit viszont a meglévő chipek iránti fokozott igény kényszerít ki.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Agyturbinikusz #5
    A lekerekitett sarku negyzet szabadalma utan, azon csodalkozom, hogy te meg meglepodsz :)
  • VolJin #4
    Nekem az a meredek, hogy ezt lehet szabadalmaztatni...
  • kvp #3
    Melyik lenne a jobb? 4 darab 4x-es kartya vagy 1 darab 16x-es? Ugyanis ha csak egy chip van rakotve a buszra, akkor egy kartyanak latszanak. Ha minden chip kap sajat darabot a buszbol, akkor minden chip fuggetlen es akkor crossfire-ba kotott kartyaknak tunnek. Valoszinuleg szandekosan akarjak az os fele egy darab kartyanak mutatni, mert ez a driver es a programok fele is egyszerusiti a mukodest. Amit lehetne az, az, hogy egy dedikalt pcie interface ostyat gyartsanak, egyfajta gateway-t. Igy a gpu ostyakon nem is lenne pcie busz illeszto, ellenben a crosslink-ek szamat meg kellene novelni. 4x3-rol 5x4-re, ami nem biztos, hogy megeri ha alapvetoen keves adat mozog a rendszerbusz es a videokartya kozott.
  • Agyturbinikusz #2
    Amin gondolkoztam, miért nem kötnek egy chipletet egy PCI-E sávra? Így is úgyis a sávokon el kell osztani az adatot.
  • kvp #1
    Kb. hasonlo elven mukodtek anno a slot1-es Pentium2-es processzorok es az uj Apple fele M1-es proci is. Mukodik, de csak akkor hasznaljak, ha nem adott a gyartastechnologia, hogy egyetlen szilicium darabra integralva gyartsanak mindent. A Samsung egybe toközott tobblapkas ARM chipjei is ugyanigy mukodnek. GPU-ra meg senki nem hasznalta, de jelentosen fel lehet gyorsitani a teljesitmenyt a sima pcie bridge-en at osszekotott megoldashoz kepest. (ott is egy gpu-nak latszik tobb egyseg)