SG.hu·
Miért vált a nagy sávszélességű memória a technológiai verseny új frontjává?

Az innováció segítette az SK Hynixet a Samsung megelőzésében, és a chipgyártókat az Egyesült Államok és Kína közötti növekvő feszültségek középpontjába helyezte.
Az SK Hynix hatalmas M14 chipgyártó üzemeiben fehér, rózsaszín és kék tisztatéri ruhákba öltözött munkások ellenőrzik a gépsorokat, miközben 700 robot száguld a felső sínek mentén, és szállítja a szilíciumlapkákat a gyártási folyamat különböző szakaszaiba. A dél-koreai vállalat fő telephelyén, Icheon városában található gyár nagy sávszélességű memória (HBM) chipeket gyárt, amelyek sávszélessége másodpercenként 200 egész estés filmnek megfelelő adatmennyiség. A memóriachipek évtizedekig a félvezetőipar kevéssé látványos ágát képezték, háttérbe szorítva az olyan logikai vagy processzorchipek által, amelyeket az AMD, a Qualcomm, az Nvidia és a TSMC tervezett és gyártott a számítások elvégzésére és az elektronikus eszközök működésének vezérlésére.
Az icheoni gyárban előállított HBM3E-hez hasonló lapkák azonban átalakítják a memóriaipart. Joon-yong Choi, az SK Hynix alelnöke és HBM üzleti tervezési vezetője megjegyzi, hogy míg a hagyományos DRAM, azaz dinamikus véletlen hozzáférésű memóriák esetében „a vásárlók a teljesítmény és az energiafogyasztás helyett a költségeket tartották szem előtt, addig a HBM esetében a teljesítmény és az energiafogyasztás előbbre való a költségeknél”. Segítségükkel az úgynevezett nagy nyelvi modellek fejlesztői enyhíthetik a „memóriafal” hatásait - ahol az adatok tárolásának és visszakeresésének korlátai akadályozzák a teljesítmény javítását -, valamint növelhetik a hatékonyságot és csökkenthetik a költségeket a világszerte építés alatt álló több ezer adatközpontban.
A memória egyre növekvő jelentősége az MI számára a szektort a Washington és Peking közötti egyre élesebb verseny középpontjába helyezte. Washington megpróbálja korlátozni Kína hozzáférését a csúcstechnológiához, Peking pedig olyan hazai félvezetőipart ápol, amely reményei szerint felveheti a versenyt a globális riválisokkal. Ez a helyzet megváltoztatta az iparág legfontosabb szereplőinek hagyományos rangsorát is. Az SK Hynix DRAM-ból származó bevételei (amelyeknek a HBM egy részét képezi), a 2021 második negyedévi 7,5 billió wonról (5,4 milliárd dollár) 2025 azonos negyedévében 17,1 billió wonra nőttek, ezzel első alkalommal megelőzve nagy riválisát, a Samsungot, mióta a két koreai csoport az 1980-as években megkezdte a versenyt a memóriapiacon.
"Öt évvel ezelőtt még elképzelhetetlen lett volna, hogy az SK Hynix megelőzze a Samsungsot” - mondja Chris Miller, a Tufts Egyetem docense és a Chip War című könyv szerzője. „Ez olyan lenne, mintha a Dr Pepper hirtelen népszerűbbé válna a Coca-Colánál. Több évtizeddel ezelőtt világossá vált, hogy a memóriapiac árucikk-dinamikája miatt nagyon nehéz itt kiemelkedő nyereséget elérni” - mondja Miller. Ez arra késztette a legkiválóbb elméket és az ambiciózus vállalkozókat, mint például Jensen Huangot az Nvidiától és Irwin Jacobst a Qualcommtól, hogy figyelmüket a processzorchipekre fordítsák - teszi hozzá. „De most a memória visszatért.”
Az Intel az 1960-as években memóriakártya-gyártóként indult, de az 1980-as években a japán riválisok, a Toshiba és a NEC nyomására kivonult a DRAM-szektorból. Őket pedig az 1990-es években a Samsung és a Hyundai Electronics chipdivíziója, a Hynix váltotta fel, amelyet később az SK konglomerátum felvásárolt. Azóta a két koreai csoport és az amerikai Micron uralja a szektort. A Samsung a közelmúltig vitathatatlanul vezető szerepet töltött be a DRAM chipek erősen árucikkesített piacán, amelyek a processzor működése közben ideiglenesen tárolják az adatokat. A ciklikus iparág rendszeres visszaesései alatt a vállalat méretéből adódó előnyét kihasználva beruházott a termelési kapacitásba. Choi elmagyarázza, hogy míg a DRAM és az alacsonyabb értékű NAND chipek - amelyek áramellátás nélkül hosszabb ideig tárolják az adatokat - voltak a domináns technológiák, a vállalatok niche termékekkel is kísérleteztek.
A Hynix 2013-ban kezdte el fejleszteni a HBM chipeket, amelyek közé tartoznak a rézvezetékekkel összekötött DRAM egységek rétegeinek egymásra rakása, mint egy többszintes könyvtárban, ahol liftekkel gyorsan szállítják a könyveket az emeletek között. Ez azt jelenti, hogy a HBM chipek 1024 útvonalat kínálnak az adatok processzorhoz és processzorról történő továbbításához, míg a hagyományos fejlett DRAM chipeknél ez a szám 64, magyarázza Choi. „ Képzeljük el úgy, mint a víztartályt megtöltő csapok számát vagy az autópálya sávjainak számát” - mondja. „Az MI memóriakövetelményeinek tekintetében semmi sem közelíti meg a HBM-et.”
Ray Wang, a Futurum Group tanácsadó cég vezető félvezetőelem-elemzője szintén a Hynix korai bevezetésére mutat rá, mint a HBM sikerének kulcsára. 16 DRAM chip egymásra rakásához elengedhetetlen egy fejlett kötési technológia, egy speciális gyantaalapú szigetelőanyag használata a túlmelegedés megakadályozására, melyet reflow-molded underfillnek vagy MR-MUF-nak neveznek. A Hynix kizárólagos szerződése a japán beszállító Namics Corporation-nel arra kényszerítette a Samsungot és a Micront, hogy egy alacsonyabb minőségű gyártási eljárással elégedjenek meg, amely magas hőmérsékletet és nagy erőt igényel, ami mindkettő repedéseket okozhat a szilícium rétegekben és magasabb meghibásodási arányt eredményezhet.
Kiváló termékeinek köszönhetően a Hynix megőrizte pozícióját az Nvidia HBM chipek fő beszállítójaként, és az OpenAI ChatGPT chatbotjának 2022 végén történt megjelenése után az MI chipek iránti kereslet robbanásszerű növekedésével az amerikai vállalat nyomdokaiba léphetett. A Bernstein kutatása szerint a HBM részesedése a Hynix teljes DRAM-bevételéből a 2022 utolsó negyedévében mért körülbelül 5 százalékról 2025 első negyedévére több mint 40 százalékra nőtt.
Myron Xie, a SemiAnalysis tanácsadó cég munkatársa megjegyzi, hogy míg a Micron HBM3E chipjei már megfeleltek a szigorú minősítési teszteknek, amelyek az Nvidia legfejlettebb MI chipjeiben való használatra vonatkoznak, a Samsung hasonló terméke még nem. A vállalathoz közel álló források szerint a HBM3E chip „hamarosan” megfelel az Nvidia tesztjeinek. Ugyanakkor elismerik, hogy a vállalat, amely a közelmúltig még domináns szereplő volt, nem volt felkészülve az MI-gyártók igényeire, akiknek egyedi követelményeknek megfelelő memória megoldásokra volt szükségük. "A Samsungnak az is gondot okoz, hogy legyártsa a legmodernebb DRAM chipeket, amelyek végül a HBM-be kerülnek” - mondja Xie. „A Micron jól teljesített, így az is elég lesújtó a Samsung számára, hogy csak a harmadik helyen végzett.” Miller hozzáteszi, hogy a Samsung „inkább a okostelefonok korszakára volt optimalizálva”, mint az MI-re. „Úgy gondolom, hogy az egész szervezet nehezen tudta elképzelni, hogy milyen lesz a világ, amikor az okostelefon már nem lesz a domináns termék.”
Ez drága botlásnak bizonyult. Peter Lee, a Citigroup szöuli székhelyű félvezetőelem-elemzője megjegyzi, hogy a HBM chipek körülbelül 50-60 százalékos haszonkulccsal rendelkeznek, míg a hagyományos DRAM egységeké körülbelül 30 százalék. Mivel minden HBM chipet úgy kell megtervezni, hogy illeszkedjen a hozzá párosított specifikus MI grafikus processzorhoz, a megrendeléseket egy évvel a gyártás előtt kell leadni, általában egyéves szerződésekkel.
„Ez sokkal nagyobb árképzési előnyt biztosít a memóriagyártóknak a potenciális ügyfelekkel szemben, mint a hagyományos DRAM-ok értékesítése esetén, amelyeket egy hónapos vagy akár egy napos előzetes értesítéssel lehet megvásárolni, és könnyen ki lehet cserélni egy rivális chipgyártó termékére” - teszi hozzá Lee. Wang becslése szerint a Samsung tévedése a ChatGPT megjelenése óta évente több tízmilliárd dollár bevételkiesést okoztak a vállalatnak. „Tudatában kellett volna lenniük annak, hogy a gépi tanulás térnyerése milyen hatással lesz a memóriák iránti keresletre” - mondja. "A HBM potenciáljának alábecsülése hatalmas stratégiai hiba volt.”
A HBM térnyerése felborította a memóriapiac csúcsán fennálló régi rendet, de egy másik forradalmi változás is kialakulóban van alulról: a kínai memóriagyártó bajnok, a ChangXin Memory Technologies, vagyis a CXMT. A kelet-Anhui tartományban, Hefei városában székhellyel rendelkező CXMT a shenzeni Qianzhan tanácsadó cég szerint a globális DRAM-piac részesedését a 2020-as közel nulláról 5 százalékra növelte tavaly. Egyelőre nem világos, hogy a CXMT hagyományos DRAM-területen elért fejlődése lehetővé teszi-e számára, hogy utolérje a Hynixet, a Samsungsot és a Micront a csúcstechnológiás HBM chipek tömeggyártásában - ez a fejlemény ugyanis potenciálisan csökkenthetné a kínai MI-fejlesztők és chipgyártók függőségét a kritikus alkatrészek tekintetében a külföldi vállalatoktól.
A CXMT HBM3 termékek - amelyek egy generációval elmaradnak a HBM3E-től - mintáit teszteli, azzal a céllal, hogy azokat jövőre piacra dobja. Az elemzők és az iparági szakértők azonban továbbra is szkeptikusak azzal kapcsolatban, hogy a CXMT az Egyesült Államok exportellenőrzése alá tartozó kulcsfontosságú berendezések és anyagokhoz való hozzáférés nélkül a közeljövőben képes lesz-e megszüntetni a HBM-területen fennálló lemaradását. „A CXMT a legutóbbi ellenőrzési kör előtt nagy mennyiségben halmozott fel szükséges berendezéseket” - mondja Wang, a Futurum Group munkatársa. „De nem fér hozzá az extrém ultraibolya gépekhez, és nem világos, hogy rendelkeznek-e elegendő berendezéssel ahhoz, hogy a vezető memóriagyártókhoz hasonló méretben gyártsanak fejlett HBM termékeket.” Becslése szerint a CXMT „három-négy évvel lemaradt” a HBM fejlesztésében.
Nemrég az amerikai kormány visszavonta azokat a mentességeket, amelyek lehetővé tették a Hynix és a Samsung számára, hogy engedély nélkül chipgyártó berendezéseket küldjenek kínai gyártóüzemeikbe. Wang szerint ez a döntés „aláhúzza Washington szándékát, hogy tovább korlátozza Kína hozzáférését a memóriatechnológiához”. A HBM fontosságát Kína mesterséges intelligencia terén támasztott ambíciói is jelzik: az ország technológiai csoportjai és chipgyártói sietve felhalmozták a koreai HBM-eket, mielőtt azok elérhetősége tavaly decemberben az amerikai exportellenőrzések miatt korlátozottá vált.
Ezen ellenőrzések ellenére sok szakértő szerint az amerikai politikai döntéshozók lassan ismerték fel a memória központi szerepét az MI teljesítményében, így a kínai vállalatok továbbra is hozzáférhetnek a legmodernebb memóriatechnológiákhoz, jóval azután, hogy a legfejlettebb processzorchipekre korlátozásokat vezettek be. Míg a HBM2E szabványnak megfelelő és annál magasabb szintű egyedi HBM chipek már nem exportálhatók Kínába, a fejlettebb chipek exportálhatók, ha előre csomagolták őket olyan MI chipekbe, amelyek nem haladnak meg bizonyos teljesítménykritériumokat. Xie, a SemiAnalysis munkatársa, példaként említi az Nvidia H20 chipjét, amelynek Kínába történő értékesítését Donald Trump amerikai elnök engedélyezte azzal az indokkal, hogy „elavult”.
Bár a H20 feldolgozási teljesítménye egyértelműen alacsonyabb a H100-nál, a hat beépített Samsung HBM3 chip valójában jobb memóriateljesítményt nyújt: másodpercenként négy terabájt memóriaszélességet, szemben a H100 3,4 TBps-ével és a Huawei zászlóshajója, az Ascend 910c 3,2 TBps-ével. Xie megjegyzi, hogy ugyan a számítási teljesítmény fontos az MI-modellek képzéséhez, a memóriát általában fontosabbnak tartják a következtetéshez. „Bizonyos szempontból a H20 jobb chip, mint a H100, mert nagyobb a memóriakapacitása és a sávszélessége” - mondja Xie. „Az emberek még mindig túlságosan a számításra koncentrálnak, de ez csak a teljesítmény egyik aspektusa.”
Az elemzők szerint az SK Hynix jelenlegi HBM-piaci dominanciája más szereplők nyomására is változhat. A koreai vállalat idén tervezi megkezdeni a következő generációs HBM4 chip tömeggyártását, amelyet az Nvidia hamarosan megjelenő Rubin platformjában fognak használni, és amely jelentős teljesítménybeli előrelépést jelent az LLM-fejlesztők számára. Míg a HBM3E és elődei viszonylag egyszerű Dram chipeket használnak „logikai chipként” - ez az alapchip szabályozza a HBM-stack működését -, addig az új tervezésnél ezt a feladatot a TSMC által gyártott fejlett processzorchip fogja ellátni.
A Samsung HBM4-je szintén fejlett processzorchipet fog használni, amelyet saját gyártóüzeme állít elő. Mivel a Samsung az egyetlen olyan vállalat, amely mind a processzor- és memóriachipek, mind a fejlett csomagolás - azaz a több chip szorosabb integrálásának folyamata - terén rendelkezik csúcstechnológiával, ügyfeleinek „egyablakos szolgáltatást” tud nyújtani. A vállalat „aktív tárgyalásokat folytat kulcsfontosságú ügyfeleivel” egy „hibrid kötés” nevű technika kapcsán, amely egy továbbfejlesztett módszer a réteges DRAM chipek összekapcsolására, és amely potenciálisan nagyobb sávszélességet, teljesítményt és jelintegritást kínál.
Wang, a Futurum Group munkatársa szerint az, aki elsőként sikerül beépítenie a hibrid kötést, „meg fogja határozni, ki lesz a vezető a következő generációs HBM-ek terén”. Szerinte a kínai vállalatok is jelentős összegeket fektetnek a kapcsolódó kutatásokba, és felgyorsítják a hibrid kötéssel kapcsolatos szabadalmi bejelentéseket. Lee, a Citigroup munkatársa megjegyzi, hogy a teljesítmény javítása mellett a processzorchipek logikai chipként való használata egyre inkább lehetővé teszi a HBM-termékek konkrét feladatokhoz való igazítását, ami még nehezebbé teszi az ügyfelek számára a beszállítók közötti váltást.
Ez felveti a kérdést, hogy a HBM4 előkészíti-e a terepet a Samsung visszatéréséhez. A nagyobb vállalatnak volt ideje kijavítani a HBM3E tervezésénél elkövetett hibákat a HBM4 esetében, ami azt jelenti, hogy valószínűleg minősülni fog az Nvidia beszállítójának - mondja Lee. Wang azonban megjegyzi, hogy a Hynix továbbra is profitálni fog a közelmúltban kialakított szoros együttműködéséből az Nvidia-val, valamint a régóta fennálló kapcsolatából az iparág vezetőjével, a TSMC-vel. A Hynix nemrégi bemutatta az ASML-től megvásárolt, nagy numerikus apertúrájú extrém ultraibolya litográfiai gépeket, amelyek további előnyt biztosítanak a HBM-versenytársakkal szemben.
Ezzel szemben Xie a SemiAnalysis-tól megjegyzi, hogy a Samsung gyártási és memóriagyártási üzletágait egyaránt minőségi és gyártási problémák sújtják. „Nincs sok értéke annak, hogy egy helyen mindent meg lehet vásárolni, ha az egyes alkatrészek minősége gyenge.” A Samsung „továbbra is befektet a HBM-üzletágba, és a következő generációs memóriatechnológiák fejlesztésére koncentrál” - áll a vállalat közleményében.
Eközben a kínai MI-chipgyártók, akik nem tudják megkerülni az amerikai exportkorlátozásokat, a teljesítmény növelése érdekében olyan módszereket keresnek, amelyekkel csökkenthetik a HBM-től való függőségüket. A Huawei a múlt hónapban új MI-szoftvert dobott piacra, amelynek célja, hogy a különböző memóriatevékenységeket különböző típusú memóriakártyákra ossza szét, ezáltal csökkentve a HBM-től való függőséget. A múlt héten a kínai technológiai óriás három új „MI szilárdtest-meghajtót” is bemutatott alternatív memóriamegoldásként. Miller, a Tufts Egyetem kutatója szerint, mivel a HBM még mindig viszonylag drága és energiaigényes, és a memóriakapacitás olyan kritikus fontosságú az MI teljesítménye szempontjából, sok technológiai vállalat próbál alternatívát kifejleszteni. Köztük van a japán SoftBank technológiai csoport, amely az Intellel együttműködve olyan réteges DRAM-terméket fejleszt, amely a HBM-től eltérő vezetékrendszert használ.
A legtöbb elemző egyetért abban, hogy a HBM valószínűleg legalább az elkövetkező öt évben dominálni fog a memóriamegoldások terén. A nagyobb testreszabás azonban valószínűleg azt jelenti, hogy a gyártó cégek, a chiptervezők és maguk a vásárlók is nagyobb szerepet kapnak a tervezési és gyártási folyamatban. Ez veszélyeztetheti a memóriagyártók azon törekvését, hogy nagyobb értéket szerezzenek az ellátási láncból, figyelmeztet Xie. „Minél több HBM-alkatrész kerül kiszervezésre a TSMC-hez és a gyártás nélküli tervezőcégekhez, annál nagyobb a kockázata annak, hogy a memóriagyártóknak a legnehezebb feladatokat kell elvégezniük” - mondja. „Ha ez bekövetkezik, akkor ez a pillanat keserédesnek bizonyulhat.”
Az SK Hynix hatalmas M14 chipgyártó üzemeiben fehér, rózsaszín és kék tisztatéri ruhákba öltözött munkások ellenőrzik a gépsorokat, miközben 700 robot száguld a felső sínek mentén, és szállítja a szilíciumlapkákat a gyártási folyamat különböző szakaszaiba. A dél-koreai vállalat fő telephelyén, Icheon városában található gyár nagy sávszélességű memória (HBM) chipeket gyárt, amelyek sávszélessége másodpercenként 200 egész estés filmnek megfelelő adatmennyiség. A memóriachipek évtizedekig a félvezetőipar kevéssé látványos ágát képezték, háttérbe szorítva az olyan logikai vagy processzorchipek által, amelyeket az AMD, a Qualcomm, az Nvidia és a TSMC tervezett és gyártott a számítások elvégzésére és az elektronikus eszközök működésének vezérlésére.
Az icheoni gyárban előállított HBM3E-hez hasonló lapkák azonban átalakítják a memóriaipart. Joon-yong Choi, az SK Hynix alelnöke és HBM üzleti tervezési vezetője megjegyzi, hogy míg a hagyományos DRAM, azaz dinamikus véletlen hozzáférésű memóriák esetében „a vásárlók a teljesítmény és az energiafogyasztás helyett a költségeket tartották szem előtt, addig a HBM esetében a teljesítmény és az energiafogyasztás előbbre való a költségeknél”. Segítségükkel az úgynevezett nagy nyelvi modellek fejlesztői enyhíthetik a „memóriafal” hatásait - ahol az adatok tárolásának és visszakeresésének korlátai akadályozzák a teljesítmény javítását -, valamint növelhetik a hatékonyságot és csökkenthetik a költségeket a világszerte építés alatt álló több ezer adatközpontban.
A memória egyre növekvő jelentősége az MI számára a szektort a Washington és Peking közötti egyre élesebb verseny középpontjába helyezte. Washington megpróbálja korlátozni Kína hozzáférését a csúcstechnológiához, Peking pedig olyan hazai félvezetőipart ápol, amely reményei szerint felveheti a versenyt a globális riválisokkal. Ez a helyzet megváltoztatta az iparág legfontosabb szereplőinek hagyományos rangsorát is. Az SK Hynix DRAM-ból származó bevételei (amelyeknek a HBM egy részét képezi), a 2021 második negyedévi 7,5 billió wonról (5,4 milliárd dollár) 2025 azonos negyedévében 17,1 billió wonra nőttek, ezzel első alkalommal megelőzve nagy riválisát, a Samsungot, mióta a két koreai csoport az 1980-as években megkezdte a versenyt a memóriapiacon.
"Öt évvel ezelőtt még elképzelhetetlen lett volna, hogy az SK Hynix megelőzze a Samsungsot” - mondja Chris Miller, a Tufts Egyetem docense és a Chip War című könyv szerzője. „Ez olyan lenne, mintha a Dr Pepper hirtelen népszerűbbé válna a Coca-Colánál. Több évtizeddel ezelőtt világossá vált, hogy a memóriapiac árucikk-dinamikája miatt nagyon nehéz itt kiemelkedő nyereséget elérni” - mondja Miller. Ez arra késztette a legkiválóbb elméket és az ambiciózus vállalkozókat, mint például Jensen Huangot az Nvidiától és Irwin Jacobst a Qualcommtól, hogy figyelmüket a processzorchipekre fordítsák - teszi hozzá. „De most a memória visszatért.”
Az Intel az 1960-as években memóriakártya-gyártóként indult, de az 1980-as években a japán riválisok, a Toshiba és a NEC nyomására kivonult a DRAM-szektorból. Őket pedig az 1990-es években a Samsung és a Hyundai Electronics chipdivíziója, a Hynix váltotta fel, amelyet később az SK konglomerátum felvásárolt. Azóta a két koreai csoport és az amerikai Micron uralja a szektort. A Samsung a közelmúltig vitathatatlanul vezető szerepet töltött be a DRAM chipek erősen árucikkesített piacán, amelyek a processzor működése közben ideiglenesen tárolják az adatokat. A ciklikus iparág rendszeres visszaesései alatt a vállalat méretéből adódó előnyét kihasználva beruházott a termelési kapacitásba. Choi elmagyarázza, hogy míg a DRAM és az alacsonyabb értékű NAND chipek - amelyek áramellátás nélkül hosszabb ideig tárolják az adatokat - voltak a domináns technológiák, a vállalatok niche termékekkel is kísérleteztek.
A Hynix 2013-ban kezdte el fejleszteni a HBM chipeket, amelyek közé tartoznak a rézvezetékekkel összekötött DRAM egységek rétegeinek egymásra rakása, mint egy többszintes könyvtárban, ahol liftekkel gyorsan szállítják a könyveket az emeletek között. Ez azt jelenti, hogy a HBM chipek 1024 útvonalat kínálnak az adatok processzorhoz és processzorról történő továbbításához, míg a hagyományos fejlett DRAM chipeknél ez a szám 64, magyarázza Choi. „ Képzeljük el úgy, mint a víztartályt megtöltő csapok számát vagy az autópálya sávjainak számát” - mondja. „Az MI memóriakövetelményeinek tekintetében semmi sem közelíti meg a HBM-et.”
Ray Wang, a Futurum Group tanácsadó cég vezető félvezetőelem-elemzője szintén a Hynix korai bevezetésére mutat rá, mint a HBM sikerének kulcsára. 16 DRAM chip egymásra rakásához elengedhetetlen egy fejlett kötési technológia, egy speciális gyantaalapú szigetelőanyag használata a túlmelegedés megakadályozására, melyet reflow-molded underfillnek vagy MR-MUF-nak neveznek. A Hynix kizárólagos szerződése a japán beszállító Namics Corporation-nel arra kényszerítette a Samsungot és a Micront, hogy egy alacsonyabb minőségű gyártási eljárással elégedjenek meg, amely magas hőmérsékletet és nagy erőt igényel, ami mindkettő repedéseket okozhat a szilícium rétegekben és magasabb meghibásodási arányt eredményezhet.
Kiváló termékeinek köszönhetően a Hynix megőrizte pozícióját az Nvidia HBM chipek fő beszállítójaként, és az OpenAI ChatGPT chatbotjának 2022 végén történt megjelenése után az MI chipek iránti kereslet robbanásszerű növekedésével az amerikai vállalat nyomdokaiba léphetett. A Bernstein kutatása szerint a HBM részesedése a Hynix teljes DRAM-bevételéből a 2022 utolsó negyedévében mért körülbelül 5 százalékról 2025 első negyedévére több mint 40 százalékra nőtt.
Myron Xie, a SemiAnalysis tanácsadó cég munkatársa megjegyzi, hogy míg a Micron HBM3E chipjei már megfeleltek a szigorú minősítési teszteknek, amelyek az Nvidia legfejlettebb MI chipjeiben való használatra vonatkoznak, a Samsung hasonló terméke még nem. A vállalathoz közel álló források szerint a HBM3E chip „hamarosan” megfelel az Nvidia tesztjeinek. Ugyanakkor elismerik, hogy a vállalat, amely a közelmúltig még domináns szereplő volt, nem volt felkészülve az MI-gyártók igényeire, akiknek egyedi követelményeknek megfelelő memória megoldásokra volt szükségük. "A Samsungnak az is gondot okoz, hogy legyártsa a legmodernebb DRAM chipeket, amelyek végül a HBM-be kerülnek” - mondja Xie. „A Micron jól teljesített, így az is elég lesújtó a Samsung számára, hogy csak a harmadik helyen végzett.” Miller hozzáteszi, hogy a Samsung „inkább a okostelefonok korszakára volt optimalizálva”, mint az MI-re. „Úgy gondolom, hogy az egész szervezet nehezen tudta elképzelni, hogy milyen lesz a világ, amikor az okostelefon már nem lesz a domináns termék.”
Ez drága botlásnak bizonyult. Peter Lee, a Citigroup szöuli székhelyű félvezetőelem-elemzője megjegyzi, hogy a HBM chipek körülbelül 50-60 százalékos haszonkulccsal rendelkeznek, míg a hagyományos DRAM egységeké körülbelül 30 százalék. Mivel minden HBM chipet úgy kell megtervezni, hogy illeszkedjen a hozzá párosított specifikus MI grafikus processzorhoz, a megrendeléseket egy évvel a gyártás előtt kell leadni, általában egyéves szerződésekkel.
„Ez sokkal nagyobb árképzési előnyt biztosít a memóriagyártóknak a potenciális ügyfelekkel szemben, mint a hagyományos DRAM-ok értékesítése esetén, amelyeket egy hónapos vagy akár egy napos előzetes értesítéssel lehet megvásárolni, és könnyen ki lehet cserélni egy rivális chipgyártó termékére” - teszi hozzá Lee. Wang becslése szerint a Samsung tévedése a ChatGPT megjelenése óta évente több tízmilliárd dollár bevételkiesést okoztak a vállalatnak. „Tudatában kellett volna lenniük annak, hogy a gépi tanulás térnyerése milyen hatással lesz a memóriák iránti keresletre” - mondja. "A HBM potenciáljának alábecsülése hatalmas stratégiai hiba volt.”
A HBM térnyerése felborította a memóriapiac csúcsán fennálló régi rendet, de egy másik forradalmi változás is kialakulóban van alulról: a kínai memóriagyártó bajnok, a ChangXin Memory Technologies, vagyis a CXMT. A kelet-Anhui tartományban, Hefei városában székhellyel rendelkező CXMT a shenzeni Qianzhan tanácsadó cég szerint a globális DRAM-piac részesedését a 2020-as közel nulláról 5 százalékra növelte tavaly. Egyelőre nem világos, hogy a CXMT hagyományos DRAM-területen elért fejlődése lehetővé teszi-e számára, hogy utolérje a Hynixet, a Samsungsot és a Micront a csúcstechnológiás HBM chipek tömeggyártásában - ez a fejlemény ugyanis potenciálisan csökkenthetné a kínai MI-fejlesztők és chipgyártók függőségét a kritikus alkatrészek tekintetében a külföldi vállalatoktól.
A CXMT HBM3 termékek - amelyek egy generációval elmaradnak a HBM3E-től - mintáit teszteli, azzal a céllal, hogy azokat jövőre piacra dobja. Az elemzők és az iparági szakértők azonban továbbra is szkeptikusak azzal kapcsolatban, hogy a CXMT az Egyesült Államok exportellenőrzése alá tartozó kulcsfontosságú berendezések és anyagokhoz való hozzáférés nélkül a közeljövőben képes lesz-e megszüntetni a HBM-területen fennálló lemaradását. „A CXMT a legutóbbi ellenőrzési kör előtt nagy mennyiségben halmozott fel szükséges berendezéseket” - mondja Wang, a Futurum Group munkatársa. „De nem fér hozzá az extrém ultraibolya gépekhez, és nem világos, hogy rendelkeznek-e elegendő berendezéssel ahhoz, hogy a vezető memóriagyártókhoz hasonló méretben gyártsanak fejlett HBM termékeket.” Becslése szerint a CXMT „három-négy évvel lemaradt” a HBM fejlesztésében.
Nemrég az amerikai kormány visszavonta azokat a mentességeket, amelyek lehetővé tették a Hynix és a Samsung számára, hogy engedély nélkül chipgyártó berendezéseket küldjenek kínai gyártóüzemeikbe. Wang szerint ez a döntés „aláhúzza Washington szándékát, hogy tovább korlátozza Kína hozzáférését a memóriatechnológiához”. A HBM fontosságát Kína mesterséges intelligencia terén támasztott ambíciói is jelzik: az ország technológiai csoportjai és chipgyártói sietve felhalmozták a koreai HBM-eket, mielőtt azok elérhetősége tavaly decemberben az amerikai exportellenőrzések miatt korlátozottá vált.
Ezen ellenőrzések ellenére sok szakértő szerint az amerikai politikai döntéshozók lassan ismerték fel a memória központi szerepét az MI teljesítményében, így a kínai vállalatok továbbra is hozzáférhetnek a legmodernebb memóriatechnológiákhoz, jóval azután, hogy a legfejlettebb processzorchipekre korlátozásokat vezettek be. Míg a HBM2E szabványnak megfelelő és annál magasabb szintű egyedi HBM chipek már nem exportálhatók Kínába, a fejlettebb chipek exportálhatók, ha előre csomagolták őket olyan MI chipekbe, amelyek nem haladnak meg bizonyos teljesítménykritériumokat. Xie, a SemiAnalysis munkatársa, példaként említi az Nvidia H20 chipjét, amelynek Kínába történő értékesítését Donald Trump amerikai elnök engedélyezte azzal az indokkal, hogy „elavult”.
Bár a H20 feldolgozási teljesítménye egyértelműen alacsonyabb a H100-nál, a hat beépített Samsung HBM3 chip valójában jobb memóriateljesítményt nyújt: másodpercenként négy terabájt memóriaszélességet, szemben a H100 3,4 TBps-ével és a Huawei zászlóshajója, az Ascend 910c 3,2 TBps-ével. Xie megjegyzi, hogy ugyan a számítási teljesítmény fontos az MI-modellek képzéséhez, a memóriát általában fontosabbnak tartják a következtetéshez. „Bizonyos szempontból a H20 jobb chip, mint a H100, mert nagyobb a memóriakapacitása és a sávszélessége” - mondja Xie. „Az emberek még mindig túlságosan a számításra koncentrálnak, de ez csak a teljesítmény egyik aspektusa.”
Az elemzők szerint az SK Hynix jelenlegi HBM-piaci dominanciája más szereplők nyomására is változhat. A koreai vállalat idén tervezi megkezdeni a következő generációs HBM4 chip tömeggyártását, amelyet az Nvidia hamarosan megjelenő Rubin platformjában fognak használni, és amely jelentős teljesítménybeli előrelépést jelent az LLM-fejlesztők számára. Míg a HBM3E és elődei viszonylag egyszerű Dram chipeket használnak „logikai chipként” - ez az alapchip szabályozza a HBM-stack működését -, addig az új tervezésnél ezt a feladatot a TSMC által gyártott fejlett processzorchip fogja ellátni.
A Samsung HBM4-je szintén fejlett processzorchipet fog használni, amelyet saját gyártóüzeme állít elő. Mivel a Samsung az egyetlen olyan vállalat, amely mind a processzor- és memóriachipek, mind a fejlett csomagolás - azaz a több chip szorosabb integrálásának folyamata - terén rendelkezik csúcstechnológiával, ügyfeleinek „egyablakos szolgáltatást” tud nyújtani. A vállalat „aktív tárgyalásokat folytat kulcsfontosságú ügyfeleivel” egy „hibrid kötés” nevű technika kapcsán, amely egy továbbfejlesztett módszer a réteges DRAM chipek összekapcsolására, és amely potenciálisan nagyobb sávszélességet, teljesítményt és jelintegritást kínál.
Wang, a Futurum Group munkatársa szerint az, aki elsőként sikerül beépítenie a hibrid kötést, „meg fogja határozni, ki lesz a vezető a következő generációs HBM-ek terén”. Szerinte a kínai vállalatok is jelentős összegeket fektetnek a kapcsolódó kutatásokba, és felgyorsítják a hibrid kötéssel kapcsolatos szabadalmi bejelentéseket. Lee, a Citigroup munkatársa megjegyzi, hogy a teljesítmény javítása mellett a processzorchipek logikai chipként való használata egyre inkább lehetővé teszi a HBM-termékek konkrét feladatokhoz való igazítását, ami még nehezebbé teszi az ügyfelek számára a beszállítók közötti váltást.
Ez felveti a kérdést, hogy a HBM4 előkészíti-e a terepet a Samsung visszatéréséhez. A nagyobb vállalatnak volt ideje kijavítani a HBM3E tervezésénél elkövetett hibákat a HBM4 esetében, ami azt jelenti, hogy valószínűleg minősülni fog az Nvidia beszállítójának - mondja Lee. Wang azonban megjegyzi, hogy a Hynix továbbra is profitálni fog a közelmúltban kialakított szoros együttműködéséből az Nvidia-val, valamint a régóta fennálló kapcsolatából az iparág vezetőjével, a TSMC-vel. A Hynix nemrégi bemutatta az ASML-től megvásárolt, nagy numerikus apertúrájú extrém ultraibolya litográfiai gépeket, amelyek további előnyt biztosítanak a HBM-versenytársakkal szemben.
Ezzel szemben Xie a SemiAnalysis-tól megjegyzi, hogy a Samsung gyártási és memóriagyártási üzletágait egyaránt minőségi és gyártási problémák sújtják. „Nincs sok értéke annak, hogy egy helyen mindent meg lehet vásárolni, ha az egyes alkatrészek minősége gyenge.” A Samsung „továbbra is befektet a HBM-üzletágba, és a következő generációs memóriatechnológiák fejlesztésére koncentrál” - áll a vállalat közleményében.
Eközben a kínai MI-chipgyártók, akik nem tudják megkerülni az amerikai exportkorlátozásokat, a teljesítmény növelése érdekében olyan módszereket keresnek, amelyekkel csökkenthetik a HBM-től való függőségüket. A Huawei a múlt hónapban új MI-szoftvert dobott piacra, amelynek célja, hogy a különböző memóriatevékenységeket különböző típusú memóriakártyákra ossza szét, ezáltal csökkentve a HBM-től való függőséget. A múlt héten a kínai technológiai óriás három új „MI szilárdtest-meghajtót” is bemutatott alternatív memóriamegoldásként. Miller, a Tufts Egyetem kutatója szerint, mivel a HBM még mindig viszonylag drága és energiaigényes, és a memóriakapacitás olyan kritikus fontosságú az MI teljesítménye szempontjából, sok technológiai vállalat próbál alternatívát kifejleszteni. Köztük van a japán SoftBank technológiai csoport, amely az Intellel együttműködve olyan réteges DRAM-terméket fejleszt, amely a HBM-től eltérő vezetékrendszert használ.
A legtöbb elemző egyetért abban, hogy a HBM valószínűleg legalább az elkövetkező öt évben dominálni fog a memóriamegoldások terén. A nagyobb testreszabás azonban valószínűleg azt jelenti, hogy a gyártó cégek, a chiptervezők és maguk a vásárlók is nagyobb szerepet kapnak a tervezési és gyártási folyamatban. Ez veszélyeztetheti a memóriagyártók azon törekvését, hogy nagyobb értéket szerezzenek az ellátási láncból, figyelmeztet Xie. „Minél több HBM-alkatrész kerül kiszervezésre a TSMC-hez és a gyártás nélküli tervezőcégekhez, annál nagyobb a kockázata annak, hogy a memóriagyártóknak a legnehezebb feladatokat kell elvégezniük” - mondja. „Ha ez bekövetkezik, akkor ez a pillanat keserédesnek bizonyulhat.”