5
-
kvp #5 "Vagyis egy igazán hagy teljesítményű CPU és GPU egybe integrálása azét macerás volna az áramfelvétel és hőtermelés miatt."
Erre valo a nagyobb chip felulet es a multi die megoldas, amikor tobb eltero tipusu die van egybe tokozva egy nagyobb feluletu chipen belul. Ilyeneket tervez a Samsung es ujabban az Apple is. Nagyon jok teljesitmeny szempontjabol is. Igy a vektoros egysegek szamolhatnak videokodolast, titkositast, 3d megjelenitest vagy MI-t is, eppen mire van szukseg, raadasul dinamikusan oszthatoak el, hogy melyik task mennyi eroforrast kapjon. A kulcs egyebkent az egyseges memoria architektura, tehat az, hogy ne kelljen adatokat mozgatni a cpu-k es a vektoros egysegek kozott, igy minden egyseg lat minden adatot es osztozhatnak a cache-ek egy reszen is. Ez utobbi miatt bukott akkorat a ps3 cell cpu-ja, ott a masolas es a kis lokalis ram-ok miatt joreszt hasznalhatatlanok voltak a vektoros egysegek es ezert jok az apple M sorozatu chipek. (egyebkent ezekben mar van neuralis mag is, de valojaban osztoznak a cpu-k es a gpu-k hardvereinek egy reszen, sajnos az apple valamiert nem engedi kozvetlenul programozni oket) -
t_robert #4 Az egy chipbe integrálásnak azért van egy kellemetlen következménye nagyobb áramfelvétel több hő nehezebb hűtés. Ha most egybe integrálnának egy top GPU-t és egy CPU-t azért kíváncsi vagyok hogy tudnák eredményesen hűteni a gyufásdoboz méretű felületen át. Azért egy ütös teljesítményhez azért csak oda kell rakni rendesen a komoly elektromos teljesítményt. Az egy dolog, hogy valamivel később megjelennek nagyjából egy architektúra kisebb fogyasztású mobilchipes verziói, de azok azért mindig elmaradnak teljesítményben az ős asztali verziók teljesítményétől. Vagyis egy igazán hagy teljesítményű CPU és GPU egybe integrálása azét macerás volna az áramfelvétel és hőtermelés miatt. -
freeapro #3 Miben különbözik az NPU a GPU-tól? Az AI most GPU-n fut, mivel rengeteg párhuzamos mátrix szorzásokat igényel, mi az amit az NPU-k jobban, vagy hatékonyabban csinálnak? -
kvp #2 Egyertelmuen nincs ertelme plusz egy vektor egyseget berakni, ha a videokartyak mar ugyis pont erre vannak optimalizalva. Sot igazabol az egesz videokartya/processzor elkulonites folosleges. Egyszerubb lenne ha cpu es vpu lenne a nevuk es egy chipbe integralnak oket. Ezzel ugyan kidobnak a gpu-k fix pipeline-jait (meg mindig van egy csomo, meg hardveres video dekodolasra is kulon) es csak szoftveres vektoros shader-ekbol allna minden gpu, de azokbol tobb ferne el. -
#1 Hát igen, az alkalmazások hiánya nagy probléma. Azon kívül, hogy valós időben cicafület rajzoltatok az aktuálisan nézett sztrímelt videón a szereplők/barátnő/politikus/celebek fejére, jelenleg nem ismert olyan a modern társadalomban való létezéshez nélkülözhetetlen alkalmazás, ami ezt a bővítést igényelné.
Játékszoftvernél, más alkalmazásnál, ahogy a cikk is írja, eddig amihez kellett/lehetett átterhelték a GPU-ra, szal fölöslegesnek tűnik még egy egységet a CPU-ba berakni.
Az lesz ezzel is, mint a fizikai gyorsító egységgel. Beharangozták, hogy eztán majd anélkül nem lehet élni, aztán az is kb a GPU-n kötött ki szoftver formájában.