在AI大模型爆火的當下,GPU被瘋搶,連帶HBM內(nèi)存芯片也在一片寒冬的存儲市場脫穎而出,成為三大原廠積極擴產(chǎn)的目標,并持續(xù)在該領(lǐng)域發(fā)力。
HBM是什么??
HBM(高帶寬存儲器, High Bandwidth Memory) 是一款新型的 CPU/GPU 內(nèi)存芯片,是由 AMD 和 SK Hynix 發(fā)起的基于 3D 堆棧工藝的高性能 DRAM,適用于高存儲器帶寬需求的應用場合。HBM 以位元計算,通過增加帶寬,擴展內(nèi)存容量,讓更大的模型、更多的參數(shù)留在離核心計算更近的地方,從而減少內(nèi)存和存儲解決方案帶來的延遲,目的實現(xiàn)大容量,高位寬的 DDR 組合陣列,目前 HBM 占整個DRAM 市場比重約 1.5%,為新型高性能存儲產(chǎn)品。
由于AI 大模型處理數(shù)據(jù)的吞吐量呈指數(shù)級增長,需要應用并行處理數(shù)據(jù)的 GPU 作為核心處理器,GPU搭載的內(nèi)存芯片帶寬關(guān)聯(lián) GPU 數(shù)據(jù)處理能力,高帶寬的內(nèi)存芯片可以為 GPU 提供更快的并行數(shù)據(jù)處理速度,對GPU的性能起到了決定性作用,HBM也順勢迎來發(fā)展機遇。
一系列配套性能自然決定了HBM的需求正不斷飆升,三大存儲原廠也看到了機遇,陸續(xù)決定擴產(chǎn)。
三大原廠積極擴產(chǎn)
據(jù)TrendForce集邦咨詢研究顯示,2022年三大原廠HBM市占率分別為SK海力士50%、三星約40%、美光約10%。此外,高階深度學習AI GPU的規(guī)格也刺激HBM產(chǎn)品更迭,2023下半年伴隨英偉達?H100與AMD MI300的搭載,三大原廠也已規(guī)劃相對應規(guī)格HBM3的量產(chǎn)。
SK海力士方面,正在擴建HBM產(chǎn)線,計劃將HBM產(chǎn)能翻倍,擴產(chǎn)焦點在于HBM3。據(jù)韓媒消息,SK海力士正在準備投資后段工藝設(shè)備,擴建封裝HBM3的利川工廠,預計到今年年末,后段工藝設(shè)備規(guī)模將增加近一倍。值得一提的是,SK海力士在去年6月已率先量產(chǎn)了DRAM HBM3,且已供貨英偉達的H100。另據(jù)Business Korea報道顯示,英偉達已要求SK 海力士提供HBM3E樣品,后者正在準備出貨樣品。
HBM3E是DRAM HBM3的下一代產(chǎn)品,目前SK海力士正在開發(fā),目標明年上半年量產(chǎn)。
三星方面,據(jù)韓國ET News消息,三星電子將投資1萬億韓元(約合7.66億美元)擴大HBM產(chǎn)能,目標是到2024年底將HBM產(chǎn)能翻一番,并且已經(jīng)下了主要設(shè)備的訂單。
美光方面,3月份的時候就宣布旗下第二代高帶寬存儲器(HBM2)即將開始出貨。HBM2主要用于高性能顯卡、服務器處理器以及各種高端處理器中。
價格是傳統(tǒng)DRAM的2~3倍
價格方面,目前HBM的價格比較昂貴,原本就是傳統(tǒng)DRAM的2~3倍。而在2023年開年后,隨著三星、SK海力士的HBM訂單快速增加,之前另有消息稱HBM3較DRAM價格上漲5倍。需求方面,由于谷歌、蘋果、微軟等科技巨頭都在籌劃擴大AI服務,HBM需求自然水漲船高。
業(yè)內(nèi)預計,明年三星與SK海力士都將進一步擴大投資規(guī)模。,“但若想滿足未來需求,三星、SK海力士都必須將產(chǎn)能提高10倍以上。
TrendForce表示,從高階GPU搭載的HBM來看,英偉達高階GPU H100、A100主要采用HBM2e、HBM3。隨著英偉達的A100/H100、AMD的MI200/MI300、谷歌自研的TPU等需求逐步提升,預估2023年HBM需求量將同比增長58%,2024年有望再增長約30%。
國盛證券指出,HBM最適用于AI訓練、推理的存儲芯片。受AI服務器增長拉動,HBM需求有望在2027年增長至超過6000萬片。廣發(fā)證券也補充,HBM方案目前已演進為高性能計算領(lǐng)域擴展高帶寬的主流方案,并逐漸成為主流AI訓練芯片的標配。
Omdia則預計,2025年HBM市場規(guī)??蛇_25億美元。
注:部分信息來源臺媒電子時報、臺媒經(jīng)濟日報等,本文僅供學習和交流之用,不構(gòu)成任何建議,不代表本號立場,如有任何問題,敬請聯(lián)系我們,謝謝。