
微軟(MSFT)正式發布最新一代人工智慧加速晶片 Maia 200,這款晶片專為AI推論(inference)工作負載設計,旨在提升生成式AI的運作效率。Maia 200 採用台積電(TSM)先進的 3 奈米製程打造,並配備原生的 FP8 與 FP4 張量核心(tensor cores),展現微軟在自研晶片領域的強大決心。
台積電先進製程與高頻寬記憶體規格
在硬體規格方面,Maia 200 展現了頂級的配置。該晶片重新設計了記憶體系統,搭載高達 216GB 的 HBM3e 高頻寬記憶體,頻寬傳輸速度達到每秒 7TB。此外,晶片內建 272MB 的靜態隨機存取記憶體(SRAM),並配備專屬的數據移動引擎,確保在處理龐大AI模型時能維持高效能運算。
效能數據超越雲端競爭對手
微軟雲端與AI執行副總裁 Scott Guthrie 強調,Maia 200 的表現優於其他超大規模雲端業者(hyperscaler)的自研晶片。他在聲明中指出:「這使得 Maia 200 成為所有雲端巨頭中效能最強的第一方晶片。」據微軟官方數據,Maia 200 在 FP4 精度下的效能是亞馬遜(AMZN)第三代 Trainium 晶片的三倍,而在 FP8 精度的表現則超越 Google(GOOGL) 的第七代 TPU。
性價比提升與實際部署進度
除了效能強大,成本效益也是此次發布的重點。Guthrie 表示,Maia 200 是微軟目前部署過效率最高的推論系統,其「每美元效能」(performance per dollar)比微軟現有最新一代硬體設施高出 30%。目前微軟已在位於愛荷華州的美國中部資料中心區域部署 Maia 200,接下來計畫擴展至鳳凰城附近的美國西部 3 區資料中心,未來將陸續推廣至更多區域。
針對低精度運算優化的架構設計
Maia 200 專為使用低精度運算的最新AI模型而設計。Scott Guthrie 補充說明,每顆 Maia 200 晶片在 4 位元精度(FP4)下可提供超過 10 petaFLOPS 的運算能力,在 8 位元精度(FP8)下則超過 5 petaFLOPS,且所有效能皆控制在 750W 的系統單晶片(SoC)熱設計功耗範圍內,展現優異的能耗比。
降低對外部供應商的依賴
儘管輝達(NVDA)的 AI 晶片目前仍是市場上訓練與推論的業界標準,但面對高昂的採購成本與供不應求的狀況,促使全球三大雲端巨頭紛紛投入資源開發自有的 AI 硬體。微軟此次推出 Maia 200,不僅是為了提升 Azure 雲端服務的競爭力,更是為了在長期發展中掌握關鍵技術自主權,降低對外部供應鏈的依賴。
發表
我的網誌