Micron推出了適用於下一代人工智能(AI)GPU的12層HBM3E芯片的生產版本,內存堆棧的容量最高為36GB,速度超過9.2GB/s。Micron表示,目前正在將生產便攜式12層HBM(HBM3E)交付給AI產業鏈中的重要合作夥伴以進行驗證程序。
Micron在9月9日正式宣布了HBM3E內存的推出,並有12層堆棧。新產品的容量為36GB,是為AI和HPC(高性能計算)工作負載的尖端處理器設計的,例如NVIDIA的H200和B100/B200 GPU。
Micron的12層HBM3E內存堆棧的容量為36GB,比以前的8層版本(24GB)高50%。容量的增加使數據中心能夠在單個處理器上運行更大的AI模型。此功能消除了經常出現CPU卸載的需求,減少GPU之間的通信延遲,並加快數據處理。
在性能方面,微米的12層HBM3E堆棧可以提供超過1.2TB/s的內存帶寬,並且數據傳輸速率超過9.2GB/s。根據Micron的說法,該公司的HBM3E不僅提供了比競爭對手高出50%的內存能力,而且比8層HBM3E堆棧所消耗的功率更少。
Micron的12層HBM3E包括一個完全可編程的內置內置自我測試(MBIST)系統,以確保產品上市時間和客戶的可靠性更快。該技術可以全速模擬系統水平的流量,從而可以全面測試並更快地驗證新系統。
Micron的HBM3E內存設備與TSMC的Cowos包裝技術兼容,該技術被廣泛用於AI處理器包裝,例如NVIDIA的H100和H200。
據報導,Micron已開始開發其下一代內存解決方案,包括HBM4和HBM4E。這些即將到來的內存類型將繼續滿足AI處理器中對先進存儲器的不斷增長的需求,包括基於Blackwell和Rubin Architectures的NVIDIA GPU。