
高通(Qualcomm)於週一宣布,將推出新的人工智慧加速晶片,這一舉措使其成為輝達(NVDA)和AMD(AMD)的新競爭對手。消息一出,高通股價大漲11%。這次推出的AI晶片標誌著高通的業務重心從無線連接和行動裝置半導體,轉向大數據中心。高通表示,將於2026年和2027年推出的AI200和AI250晶片,能夠裝配在一整個液冷伺服器機架中,類似輝達和AMD的圖形處理單元(GPU)系統,支援多達72顆晶片協同運作,滿足AI實驗室運行高階模型的計算需求。
進軍數據中心市場,迎接快速成長的AI伺服器需求
高通進入數據中心領域,標誌著在這個快速增長的技術市場中的新競爭。根據麥肯錫的預估,到2030年,將有近6.7兆美元的資本支出投入數據中心建設,其中大部分將用於AI晶片系統。輝達目前在市場上佔有超過90%的份額,其GPU驅動公司市值超過4.5兆美元。輝達的晶片被用於訓練OpenAI的GPT模型,這些大型語言模型是ChatGPT的核心技術。不過,像OpenAI這樣的公司正在尋找替代方案,該公司本月初宣布計劃購買AMD的晶片,並可能入股該公司。
專注於推論運行,降低雲端服務成本
高通表示,其AI晶片將專注於推論運行,即運行AI模型,而非訓練,這是OpenAI等實驗室透過處理大量數據來創建新AI功能的方式。高通的機架級系統最終將降低雲端服務提供商的運營成本,其機架耗電量為160千瓦,與一些輝達GPU機架的高功耗相當。高通將單獨銷售AI晶片及其他零件,特別是針對那些喜歡自行設計機架的超大規模客戶。高通的數據中心部門總經理Durga Malladi指出,其他AI晶片公司如輝達或AMD也可能成為高通數據中心零件的客戶。
高通的AI晶片具備省電和記憶體優勢
高通強調,其AI晶片在功耗、擁有成本和記憶體處理方式上具有優勢。高通的AI卡支援768GB記憶體,比輝達和AMD的產品更高。今年5月,高通宣布與沙烏地阿拉伯的Humain合作,為該地區的數據中心提供AI推論晶片,並承諾部署可使用高達200兆瓦電力的系統。高通未透露晶片、卡或機架的價格,以及單一機架中可安裝的NPU數量。
發表
我的網誌