SG.hu
Az AMD szerint az MI érésével már nem a GPU-ké lesz a főszerep
A GPU-k mindig is kritikus szerepet fognak játszani az MI számításokban, de ahogy a modellek érnek, egyre több lehetőség nyílik az egyedi chipek számára.
A jövő számítógépes chipjei segíthetnek enyhíteni a generatív mesterséges intelligencia riasztó energiaigényét, de a chipgyártók szerint előbb meg kell oldani a változások szédítő tempójának lelassítását. Eddig a grafikus feldolgozóegységek uralták a nagyméretű MI-modellek képzésének és futtatásának feladatait, mert az eredetileg játékgrafikákhoz készült chipek egyedülálló módon ötvözik a nagy teljesítményt a rugalmassággal és a programozhatósággal, amely szükséges ahhoz, hogy lépést tartsanak a mai, folyamatosan változó MI-modellek áradatával. Az Nvidia dominanciája a GPU-piacon trillió dolláros értékelést eredményezett, de mások, köztük az AMD is gyártanak ilyen chipeket.
Ahogy azonban az iparág a szabványos modelltervek köré tömörül, lehetőség nyílik majd arra, hogy több egyedi chipet készítsenek, amelyek nem igényelnek annyi programozhatóságot és rugalmasságot - véli Lisa Su, az AMD vezérigazgatója. Ezáltal energiatakarékosabbak, kisebbek és olcsóbbak lesznek. "A GPU-k architektúrája jelenleg szinte egyeduralkodó a nagy nyelvi modellek terén, mert nagyon-nagyon hatékonyak a párhuzamos feldolgozásban” - mondta Su. "De vajon öt év múlva is ez lesz a választott architektúra? Szerintem ez változni fog.” Su szerint öt-hét év múlva nem a GPU-król való elmozdulás, hanem inkább a GPU-kon túli bővülés várható.
Néhány egyedi chip már most is dolgozik a mesterséges intelligencia egyes aspektusainak kezelésén. Az olyan nagy felhőszolgáltatók, mint az Amazon.com és a Google saját MI-chipeket fejlesztettek ki belső használatra. Az Amazon Trainium és Inferentia, valamint a Google tenzorfeldolgozó egységei (TPU-k) csak bizonyos funkciók végrehajtására alkalmasak. A Trainium például csak modellek képzésére képes, míg az Inferentia csak következtetés futtatására, ami a képzésnél kevésbé intenzív folyamat, mert abban a modellek új információkat dolgoznak fel és reagálnak.
Az egyedi chipek sokkal energiatakarékosabbak, olcsóbbak és kisebbek lehetnek, mert nagyon szigorúan le lehet őket szabályozni: csak egy adott funkciót végezhetnek vagy csak egy adott típusú modellt futtathatnak, de azt nagyon nagy sebességgel - mondta Shane Rau, az International Data Corp. piackutató cég számítástechnikai félvezetőkkel foglalkozó kutatási alelnöke. Rau szerint azonban az ilyen szuperegyedi, alkalmazásspecifikus chipek kereskedelmi értékesítésének piaca még éretlen, ami annak a tünete, hogy milyen sok innováció zajlik a mesterséges intelligencia modellek terén.
A nagymértékben testreszabott chipeknél a rugalmasság és az interoperabilitás hiánya is problémás - mondta Chirag Dekate, a Gartner kutatócég alelnök-elemzője. Ugyan programozhatók, de ez nagyon nehéz feladat, mert jellemzően egyedi szoftvercsomagokat igényelnek, és nehezen lehet őket más típusú chipekkel együttműködésre bírni. A chipek kínálata manapság virágzik, vannak olyan GPU-k, amelyek jobban testre szabhatók, és vannak olyan speciális chipek, amelyek csak bizonyos szintű programozhatóságot biztosítanak. Ez lehetőséget ad a chipgyártóknak a próbálkozásra, még mielőtt a generatív mesterséges intelligencia szabványosabbá válna, de egyben választási kényszert is jelent.
"Küzdünk ezzel a dologgal" - mondta Gavin Uberti, az Etched társalapítója és vezérigazgatója. A startup olyan chipeket gyárt, amelyek csak a Google által 2017-ben kifejlesztett transzformátor architektúrán végeznek következtetést, amely azóta a nagy nyelvi modellek szabványává vált. Annak ellenére, hogy egy bizonyos pontig testre szabhatóak, a chipeknek elég rugalmasnak kell lenniük ahhoz is, hogy alkalmazkodni tudjanak a kisebb műveletekhez, amelyek modellről modellre változnak. „Jelenleg a modellek már eléggé kiforrottak ahhoz, hogy szerintem van értelme a transzformátorra fogadni, de mondjuk a Llama 3.1 405B-re nem tennék egy lyukas vasat sem” - mondta Uberti, utalva a Facebook-tulajdonos Meta Platforms egyik MI-modelljére. „A transzformátorok megmaradnak, de egyre nagyobbak és fejlődnek. Mindazonáltal vigyázni kell, hogy ne specializálódjunk túlságosan”.
A számítástechnikában nem jó egyféle méret mindenkinek - szögezte le Su, az AMD vezérigazgatója. A jövőbeni MI-modellek különböző típusú chipek kombinációját fogják használni, beleértve a ma domináns GPU-kat és különböző funkciókhoz a még kifejlesztésre váró, specializáltabb chipeket. "Lesznek más architektúrák” - mondta. „Ez csak a modellek fejlődésétől függ majd”.
A jövő számítógépes chipjei segíthetnek enyhíteni a generatív mesterséges intelligencia riasztó energiaigényét, de a chipgyártók szerint előbb meg kell oldani a változások szédítő tempójának lelassítását. Eddig a grafikus feldolgozóegységek uralták a nagyméretű MI-modellek képzésének és futtatásának feladatait, mert az eredetileg játékgrafikákhoz készült chipek egyedülálló módon ötvözik a nagy teljesítményt a rugalmassággal és a programozhatósággal, amely szükséges ahhoz, hogy lépést tartsanak a mai, folyamatosan változó MI-modellek áradatával. Az Nvidia dominanciája a GPU-piacon trillió dolláros értékelést eredményezett, de mások, köztük az AMD is gyártanak ilyen chipeket.
Ahogy azonban az iparág a szabványos modelltervek köré tömörül, lehetőség nyílik majd arra, hogy több egyedi chipet készítsenek, amelyek nem igényelnek annyi programozhatóságot és rugalmasságot - véli Lisa Su, az AMD vezérigazgatója. Ezáltal energiatakarékosabbak, kisebbek és olcsóbbak lesznek. "A GPU-k architektúrája jelenleg szinte egyeduralkodó a nagy nyelvi modellek terén, mert nagyon-nagyon hatékonyak a párhuzamos feldolgozásban” - mondta Su. "De vajon öt év múlva is ez lesz a választott architektúra? Szerintem ez változni fog.” Su szerint öt-hét év múlva nem a GPU-król való elmozdulás, hanem inkább a GPU-kon túli bővülés várható.
Néhány egyedi chip már most is dolgozik a mesterséges intelligencia egyes aspektusainak kezelésén. Az olyan nagy felhőszolgáltatók, mint az Amazon.com és a Google saját MI-chipeket fejlesztettek ki belső használatra. Az Amazon Trainium és Inferentia, valamint a Google tenzorfeldolgozó egységei (TPU-k) csak bizonyos funkciók végrehajtására alkalmasak. A Trainium például csak modellek képzésére képes, míg az Inferentia csak következtetés futtatására, ami a képzésnél kevésbé intenzív folyamat, mert abban a modellek új információkat dolgoznak fel és reagálnak.
Az egyedi chipek sokkal energiatakarékosabbak, olcsóbbak és kisebbek lehetnek, mert nagyon szigorúan le lehet őket szabályozni: csak egy adott funkciót végezhetnek vagy csak egy adott típusú modellt futtathatnak, de azt nagyon nagy sebességgel - mondta Shane Rau, az International Data Corp. piackutató cég számítástechnikai félvezetőkkel foglalkozó kutatási alelnöke. Rau szerint azonban az ilyen szuperegyedi, alkalmazásspecifikus chipek kereskedelmi értékesítésének piaca még éretlen, ami annak a tünete, hogy milyen sok innováció zajlik a mesterséges intelligencia modellek terén.
A nagymértékben testreszabott chipeknél a rugalmasság és az interoperabilitás hiánya is problémás - mondta Chirag Dekate, a Gartner kutatócég alelnök-elemzője. Ugyan programozhatók, de ez nagyon nehéz feladat, mert jellemzően egyedi szoftvercsomagokat igényelnek, és nehezen lehet őket más típusú chipekkel együttműködésre bírni. A chipek kínálata manapság virágzik, vannak olyan GPU-k, amelyek jobban testre szabhatók, és vannak olyan speciális chipek, amelyek csak bizonyos szintű programozhatóságot biztosítanak. Ez lehetőséget ad a chipgyártóknak a próbálkozásra, még mielőtt a generatív mesterséges intelligencia szabványosabbá válna, de egyben választási kényszert is jelent.
"Küzdünk ezzel a dologgal" - mondta Gavin Uberti, az Etched társalapítója és vezérigazgatója. A startup olyan chipeket gyárt, amelyek csak a Google által 2017-ben kifejlesztett transzformátor architektúrán végeznek következtetést, amely azóta a nagy nyelvi modellek szabványává vált. Annak ellenére, hogy egy bizonyos pontig testre szabhatóak, a chipeknek elég rugalmasnak kell lenniük ahhoz is, hogy alkalmazkodni tudjanak a kisebb műveletekhez, amelyek modellről modellre változnak. „Jelenleg a modellek már eléggé kiforrottak ahhoz, hogy szerintem van értelme a transzformátorra fogadni, de mondjuk a Llama 3.1 405B-re nem tennék egy lyukas vasat sem” - mondta Uberti, utalva a Facebook-tulajdonos Meta Platforms egyik MI-modelljére. „A transzformátorok megmaradnak, de egyre nagyobbak és fejlődnek. Mindazonáltal vigyázni kell, hogy ne specializálódjunk túlságosan”.
A számítástechnikában nem jó egyféle méret mindenkinek - szögezte le Su, az AMD vezérigazgatója. A jövőbeni MI-modellek különböző típusú chipek kombinációját fogják használni, beleértve a ma domináns GPU-kat és különböző funkciókhoz a még kifejlesztésre váró, specializáltabb chipeket. "Lesznek más architektúrák” - mondta. „Ez csak a modellek fejlődésétől függ majd”.