美光HBM客戶再加一 成功導入AMD AI平台

▲美光。(圖/美光提供)

記者高兆麟/台北報導

記憶體大廠美光科技今日宣布將其 HBM3E 12 層堆疊 36GB 記憶體整合至即將推出的 AMD Instinct MI350 系列解決方案中。

美光表示,此次合作突顯能源效率和效能在訓練大型 AI 模型、提供高傳輸量推論,以及處理複雜之高效能運算工作負載 方面的關鍵作用。此外,這也是美光在 HBM 產業領導地位的另一重大裏程碑,展現美光穩健的執行力和強大的客戶關係。

美光 HBM3E 12 層堆疊 36GB 記憶體解決方案為 AMD Instinct MI350 系列 GPU 平台帶來領先業界的記憶體技術,提供卓越的頻寬表現和更低的功耗。AMD Instinct MI350 系列 GPU 平台採用 AMD 的 CDNA 4 架構,整合 288GB 高頻寬 HBM3E 記憶體,可提供 8 TB/s 的頻寬,實現優異的吞吐量。憑藉如此龐大的記憶體容量,Instinct MI350 系列 GPU 可在一顆 GPU 上高效支援高達 5,200 億個參數的 AI 模型。在完整平台配置中,Instinct MI350 系列 GPU 可搭載高達 2.3TB 容量的 HBM3E 記憶體,並在 FP4 精度下實現高達 161 PFLOPS 的峰值理論效能,具備頂尖的能源效率和可擴充性,適合高密度 AI 工作負載。

美光指出,此技術架構與具高能源效率的美光 HBM3E 記憶體相輔相成,為大型語言模型訓練、推論和科學模擬任務提供卓越的傳輸效能,不僅有助資料中心擴展,更能達成每瓦運算效能的極大化。

美光副總裁暨雲端記憶體產品事業群總經理 Praveen Vaidyanathan 表示:「透過美光與 AMD 的緊密合作和共同在工程技術開發的努力,我們最佳化了 HBM3E 12 層堆疊 36GB 記憶體與 Instinct MI350 系列 GPU 和平台的相容性。美光 HBM3E 的產業領導地位和技術創新能為終端客戶提供更優異的總體擁有成本(TCO) 效益,並為要求苛刻的 AI 系統實現高效能。」


標題:美光HBM客戶再加一 成功導入AMD AI平台

聲明: 本文版權屬原作者。轉載內容僅供資訊傳遞,不涉及任何投資建議。如有侵權,請立即告知,我們將儘速處理。感謝您的理解。

分享你的喜愛