ICC訊 2026年1月26日,微軟正式發(fā)布其最新自研AI芯片Maia 200。該公司將這款芯片描述為專為擴展AI推理規(guī)模而設計的“硅基主力”(Silicon workhorse)。此舉是科技巨頭減少對英偉達依賴趨勢的一部分,旨在優(yōu)化日益重要的AI推理成本。
性能大幅提升,專為推理優(yōu)化
Maia 200是微軟繼2023年推出Maia 100后的第二代產(chǎn)品。微軟表示,該芯片在技術上經(jīng)過專門配備,能夠以更快的速度和更高的效率運行強大的AI模型。與主要專注于訓練任務的上一代不同,Maia 200是微軟首個“專門為AI推理優(yōu)化的硅芯片及系統(tǒng)平臺”,這意味著其設計聚焦于每美元所能提供的計算Token數(shù)以及每瓦電力的性能效率。
具體而言,Maia 200擁有超過1000億個晶體管,可提供超過10 PetaFlops的4位精度計算能力和約5 PetaFlops的8位精度性能,相比前代有大幅提升。微軟云與AI執(zhí)行副總裁Scott Guthrie在一篇博客中寫道,Maia 200能夠提供“比我們當前最新一代硬件高出30%的每美元性能”。微軟稱,在實際應用中,一個Maia 200節(jié)點可以輕松運行當今最大的模型,并為未來更龐大的模型預留充足空間。
關鍵技術特性與競爭優(yōu)勢
新芯片的關鍵特性包括一個強大的內存子系統(tǒng)、一個用于跨集群和內存子系統(tǒng)通信的片上網(wǎng)絡,以及一個基于優(yōu)化的AI傳輸層(ATL)并支持標準以太網(wǎng)的以太網(wǎng)擴展互連系統(tǒng)。Gartner副總裁分析師Chirag Dekate指出,Maia的內存容量大于微軟同行提供的芯片。充足的內存意味著微軟能夠“運行那些目前本質上受內存帶寬和容量限制的思維與推理工作負載”。
在競爭格局方面,微軟在其新聞稿中指出,Maia的FP4性能是亞馬遜第三代Trainium芯片的3倍,F(xiàn)P8性能也高于谷歌的第七代TPU。微軟正憑借Maia與這些替代方案展開競爭。分析認為,隨著推理工作負載的增加,運營成本對于尋求運行AI的公司而言正成為日益重要的因素,尤其是對Azure用戶。J. Gold Associates創(chuàng)始人Jack Gold表示,微軟創(chuàng)造這款芯片,旨在為其AI推理工作負載建立一個比使用通用GPU更低的成本結構,本質上是通過直接定制芯片而非從英偉達或AMD購買,去掉了中間環(huán)節(jié)。
應用部署與行業(yè)潛力
微軟表示,Maia已經(jīng)在為其超級智能團隊的AI模型提供支持,并一直支撐著Copilot聊天機器人的運營。目前,微軟已在其美國中部Azure數(shù)據(jù)中心區(qū)域部署了Maia 200,并計劃接下來在其美國西部-3區(qū)域啟用。不過,初期芯片似乎主要用于內部用例。
微軟已發(fā)布了Maia軟件開發(fā)套件(SDK),邀請包括開發(fā)者、學者和前沿AI實驗室在內的各方在其工作負載中使用。這意味著企業(yè)最終將能夠在芯片上運行自身工作負載,但該功能可能會逐步推出。預計Maia將首先向一批精選的企業(yè)客戶提供,然后才會全面開放。
分析師特別提到了Maia 200對電信行業(yè)的潛在影響。其基于以太網(wǎng)的互連系統(tǒng)對于希望提供增值服務、擺脫“笨管道”數(shù)據(jù)搬運困境的電信運營商來說可能是個好消息。Chirag Dekate認為,運營商有機會與微軟進行戰(zhàn)略對話,探討在其設施中托管Maia實例或由Maia驅動的數(shù)據(jù)中心的可能性。這將使他們能夠以更高的能源和成本效率,提供新的、性能更強的智能體AI能力。
成本效益與未來展望
Dekate預計,Maia 200推出的初步影響將體現(xiàn)在使用微軟Copilot的企業(yè)和電信運營商獲得更好的結果上。隨著Maia 200最終可用于企業(yè)工作負載,客戶將能夠利用存儲在微軟Azure中的數(shù)據(jù)運行更復雜的任務,以更優(yōu)的成本跨一系列模型運行更復雜、更可靠的智能體工作流。
然而,微軟將如何利用其節(jié)省的成本仍有待觀察:是降低客戶成本,還是將其轉化為Azure實例更高的利潤率。Dekate同意這一點,他表示:“它不僅高效,而且成本結構很可能具有很好的互補性?,F(xiàn)在,這將取決于微軟來決定和定義其定價模型……但從理論上講,能力是存在的。”
微軟此次發(fā)布Maia 200,彰顯了其通過自研硬件深入AI基礎設施核心的決心,旨在為未來激烈的AI競爭夯實底層算力基礎。