在AI規模化推理落地的商業化決戰中,一個決定AI未來的核心戰場已然成型。高效、低成本承載海量推理請求,正成為AI商業化的關鍵命題。面對傳統存儲的帶寬瓶頸與高昂成本難題,專為AI推理而生的HBF高帶寬閃存應運而生,以大容量、高帶寬、低成本的顛覆性優勢,破解AI推理 “內存牆” 困境,成為銜接HBM與SSD的新一代核心存儲方案。
愛集微VIP頻道近日上線由元富投顧製作的研究報告《HBF在AI推理市場扮演的角色》。本報告系統剖析了AI推理時代存儲產業的供需格局,深入解讀HBF技術的核心價值、廠商布局與未來前景,為理解下一代AI存儲生態提供了關鍵指引。
核心洞察:供需失衡下的存儲新變量
一、產業供需:服務器需求主導,價格上漲持續
2026年全球存儲產業將持續呈現“供給增幅有限、需求強勁增長”的緊俏格局。供給端,DRAM受HBM產能擠占(HBM晶圓消耗量為DDR5的2-3倍),供給增長預計為19%;NAND Flash則因原廠減產與投資保守,供給增長預計為20%。需求端由服務器市場主導,2026年服務器將分別佔DRAM和NAND產業需求的66%和38%,全球八大雲服務提供商資本支出預計同比增長40%,成為核心增長引擎。
供需失衡直接推升價格:2025年下半年以來,DRAM主流規格現貨價漲幅最高達600%,NAND產品漲幅超500%;合約價同樣強勁,2025年四季度傳統型DRAM上漲45-50%,NAND上漲33-38%,2026年一季度預計延續高增長。
具體來看,2026年DRAM供給預計預計19%、需求增長27%,供需缺口達-9.7%;NAND預計供給增長20%,需求增長20%,缺口為-6.9%。
二、HBF技術:AI推理的存儲破局者
HBF作為介於HBM與固態硬盤之間的新型存儲技術,被譽為 “NAND版HBM” ,專為解決AI推理場景的 “內存牆” 問題而生。
與HBM相比,HBF具備三大差異化優勢,完美匹配AI推理需求:
-容量更大:單堆疊芯片容量可達512GB,目標容量4TB,遠超HBM的64GB,能滿足完整AI模型的存儲需求;
-成本更低:單位成本僅為HBM的1/8~1/16,大幅降低AI系統總體擁有成本;
-性能夠用:儘管存取延遲(微秒級)高於HBM(納秒級),但SanDisk模擬測試顯示,在運行405B參數的Llama 3.1模型時,排除容量影響後HBF與HBM的帶寬性能差距僅2.2%,可滿足推理場景需求。
三、HBF vs. HBM:互補而非取代
報告用一個生動的比喻解釋其在AI系統中的地位:
GPU = 頂尖學者
HBM = 書桌上的書架(快速但容量有限)
HBF = 私人圖書館(容量大,取用稍慢)
SSD/硬盤 = 公共圖書館(更遠但容量更大)
這樣的分層存儲架構,使得AI系統能在成本與效率之間取得最佳平衡。
報告中特彆強調,HBF並非要取代HBM,而是與之互補。HBM負責高速數據處理(如訓練階段),HBF則負責大規模數據存儲(如推論階段)。兩者共同構建起一個高效、低成本的AI存儲體系。
報告指出,目前SanDisk與Hynix在HBF技術研發上最為積極,預計2026下半年推出樣品,2027年量產。
解鎖報告全部內容
愛集微VIP頻道:您的前沿技術雷達
在技術快速迭代、全球競爭格局瞬息萬變的時代,擁有系統、權威、前瞻的信息來源是做出正確決策的前提。愛集微VIP頻道致力於打造ICT產業的全球報告資源庫,通過“行業報告”“集微諮詢”“政策指引”三大板塊,為您提供:
–超過2萬份深度產業與技術研究報告,持續更新;
-每周新增數百篇前沿分析與技術解讀,緊扣脈搏;
-覆蓋技術演進、市場動態、產業鏈布局的多維信息體系。
我們堅持“信息普惠”原則,會員一次訂閱即可訪問全平台內容,無二次收費,無分級限制。
限時會員通道現已開啟,為您的專業決策注入持續動能:
-首月體驗價僅需9.9元,以最低成本,超值體驗完整服務。
-月卡19.9元,靈活應對短期、高強度的信息需求。
-季卡54.9元,以穩定的節奏,持續把握產業脈搏。
-年卡199元,是長期主義者最具性價比的智囊夥伴。









