隨著半導體行業與無線技術深度融合,Technotrend市場研究公司決定對AI硬件市場現狀展開更全面的審視。內存、DRAM、高帶寬內存(HBM)和NAND的發展趨勢,不僅深刻影響著AI系統自身,也在無線通信、消費電子及汽車等領域引發連鎖反應。
本文聚焦近期內存技術的演進,闡釋為何內存架構正成為AI性能、定價乃至市場格局的關鍵變量。進入2026年,單一關注算力的視角已經顯示出局限性——內存正成為規模化AI系統的首要瓶頸。
DRAM:AI實時性能的核心基石
AI模型生成回答并非簡單檢索靜態信息,而是持續維護一個包含上下文窗口、(key-value caches)、中間激活值(intermediate activations)和路由決策的“工作狀態”。這些數據需以超低延遲實時訪問且始終保持可用,因此DRAM及更貼近計算核心的HBM成為支撐AI性能的底層支柱。
與SSD不同,DRAM使模型推理全程保持“熱狀態”。在完整token序列處理中,模型需持續訪問并更新上下文。即便內存延遲輕微上升,也可能導致吞吐量下降、響應延遲,甚至迫使運營商增配硬件。實際應用中,許多AI系統的瓶頸已從算力轉向內存。
- 從系統架構看,AI運行于分層內存體系之上:
- HBM為AI加速器提供高帶寬數據供給;
- DRAM存儲實時狀態與對話記憶;
- 基于NAND的SSD則承載數據集、嵌入向量、檢索索引、日志及檢查點等持久化存儲。
實現“更強大的AI”,往往意味著將更多數據從冷存儲遷移至更快、更低延遲的內存層級。
NAND:“知識層”的沉默支撐者
表面上看,NAND在大語言模型架構中的重要性不及DRAM——SSD的速度遠慢于DRAM,且不參與實時token生成。但大規模AI系統無法脫離NAND:訓練數據集、模型檢查點、向量數據庫及檢索系統均依賴其提供成本可控的海量存儲容量。
隨著檢索增強生成(RAG)成為核心技術,AI集群正悄然構建龐大的SSD資源池。長期記憶、合規日志、向量搜索等均駐留于這一“冷知識層”。AI并未削弱NAND的價值,反而在更深層、更結構化的內存體系中重塑其定位。
當前AI數據中心正擴展向量數據庫、檢查點與日志存儲能力,推動企業級SSD需求持續增長。NAND供應商的策略已轉向:
- 將產能從低利潤消費級SSD轉向高價值數據中心產品;
- 嚴格控制整體產能規模。
與此同時,存儲器廠商正優先將資本支出投向HBM與先進DRAM,這進一步限制了通用DRAM與NAND的產能擴張速度。
從技術參數到產品特性:內存成為服務分層標尺
對基于大語言模型的服務而言,內存正演化為直接的產品特性。響應速度、上下文窗口長度及對話歷史持久性,均取決于用戶或會話可分配的DRAM與HBM資源量,由此催生分層服務模式:付費用戶獲得更充裕且穩定的內存預算,免費用戶則在嚴格限制下運行。
主流AI平臺中,高價服務層級通常提供更長的上下文支持、更高的調用頻率限制、優先級的性能保障。這些特性緊密關聯內存分配而非單純算力。隨著技術效率提升,其收益往往被用于擴展上下文長度與個性化功能,而非降低價格——延遲本身被視為一種特性,內存則成為核心定價變量。
廣告與內存經濟學:可持續運營的雙軌制
大規模運行LLM的經濟模型仍面臨挑戰:計算、內存及數據中心的基礎設施成本持續攀升,僅靠訂閱收入難以覆蓋高頻使用負載。因此,廣告逐漸成為結構性補充方案。
一個可能的演進路徑是形成一種混合模式:廣告補貼免費用戶的基礎訪問;付費層級購買內存層級中的優先位置。廣告確保服務廣泛可及,內存分配則直接定義性能與體驗質量。
價格上漲與外溢效應:供需雙驅動
近期DRAM與NAND價格上漲常歸因于AI需求,但供應端策略同樣關鍵:內存廠商正謹慎擴產,優先投入先進DRAM與HBM,并維持嚴格的產出紀律。即使不存在實質性短缺,該策略仍會支撐高位價格。
盡管LLM針對HBM進行了優化,但由于供應有限,AI系統不得不大量依賴傳統DRAM。DDR5(以及在某些情況下的DDR4)被廣泛用于主機CPU、系統內存和網絡組件,從而進一步收緊了供應并推高了價格。
即使是諸如DDR3等舊標準也會受到影響。雖然DDR3并未用于AI系統,但其產能隨著制造商將重心轉向新技術而縮減。而汽車、工業等領域因產品生命周期長,仍持續依賴DDR3,在長尾需求中形成持續價格壓力。
行業整合前夜:內存墻成為市場篩選器
“內存墻”正演變為市場篩選機制:要以前沿水平運行LLM并保持上下文長度與延遲競爭力,需對DRAM與HBM進行持續大規模投入。僅少數參與者能承擔此類成本。下一階段AI競爭的決定性因素將不再是算法本身,而是內存資源、物理極限與企業資產負債表的較量。
本文翻譯自國際電子商情姊妹平臺EETimes Aisa,原文標題: