GPU太燒錢 巨頭自研AI芯片漸成趨勢
本報記者 李玉洋 上海報道
身處AI(人工智能)的“iPhone時刻”,英偉達的地位依舊穩固。
英偉達於近日發佈的2024財年三季報顯示,其營收達到創紀錄的181.20億美元,同比增長206%,環比增長34%;淨利潤再創新高,達到92.43億美元,同比增長1259%,環比增長49%。
同時,英偉達還預計下個財季營收將達到200億美元,這份強勁的收入展望,表明了支撐AI繁榮的芯片需求仍然旺盛。目前,英偉達的GPU佔據了AI芯片絕大部分的市場份額,且供不應求,高端GPU更是一卡難求。
而一股自研AI芯片的風潮正在科技巨頭之間興起,不管是爲了降低成本,還是減少對英偉達的依賴,包括谷歌、亞馬遜、阿里巴巴、騰訊、Meta等大廠先後入局造芯,下場自研AI芯片。《中國經營報》記者注意到,這份巨頭自研AI芯片的列表如今又增加了新成員——微軟,在11月中旬舉行的開發者大會上,微軟推出自家的AI芯片Maia 100;而風頭正盛的OpenAI也被爆出正在探索研發自己的AI芯片。
“他們的算力需求比較大,英偉達的卡對他們來說太貴了,而且專門爲大模型設計的芯片,能效比會比N卡更高。”一名算力提供商員工表示,做AI芯片太燒錢了,很多AI芯片公司扛不住了,大模型會加速淘汰。
根據英偉達數據,在沒有以Transformer模型爲基礎架構的大模型之前,算力需求大致是每兩年提升8倍;而自利用Transformer模型後,算力需求大致是每兩年提升275倍。
“自研AI芯片是一個產業走向成熟繞不開的趨勢,但凡哪個廠商AI運算的體量大幅度提升,就需要自家的芯片來支撐,這樣才能達到最高的優化。”研究機構Omdia AI行業首席分析師蘇廉節對記者表示,未來AI芯片市場不再由GPU獨霸,“我覺得比較有趣的是英偉達自己怎麼看這個趨勢”。
而英偉達方面在業績說明會上證實,其正在爲中國開發新的合規芯片,但同時表示這些不會對第四季度的收入作出實質性貢獻。“明年年初才能下單,我們在等價格,下單後啥時候能到貨還不好說。”對此,記者從國內一家服務器公司的技術研發人員口中得到了一些側面印證。
洗牌避免不了
“目前,全球幾個雲大廠基本上都在自研AI芯片,比如亞馬遜的Trainium和Inferentia、谷歌的TPU、百度的崑崙、華爲的昇騰、阿里的玄鐵,現在微軟也開始做自己的AI芯片。”蘇廉節表示,未來雲大廠會把自家的模型部署在自己的芯片上,這是產業發展繞不開的趨勢。
然而,他還指出:“這不代表英特爾、AMD、寒武紀這種芯片廠商就沒有出路,畢竟不是所有的開發者都會選擇使用雲廠商的芯片。”
同時,作爲雲大廠,微軟也沒有把自己的AI芯片Maia 100的使用權賦予所有人。微軟首席執行官薩提亞·納德拉(Satya Nadella)表示,Maia將首先爲微軟自己的人工智能應用程序提供支持,再提供給合作伙伴和客戶。
據瞭解,微軟Maia 100採用臺積電5nm工藝,擁有1050億個晶體管,比AMD的MI300X GPU的1530億個晶體管少約30%。Maia將用於加速AI計算任務,服務於商業軟件用戶和使用Copilot的個人用戶,以及希望製作定製人工智能服務的開發者。
今年6月,AMD對外展示可與英偉達H100一較高低的Instinct MI300X GPU。根據爆料信息,其顯存容量提升到192GB,相當於H100 80GB 的2.4倍,同時HBM內存帶寬高達5.2TB / s,Infinity Fabric總線帶寬也有896GB/s,同樣超過H100。
最新消息顯示,AMD將於北京時間12月7日凌晨2點舉辦一場專門針對AI的特別活動,不出意外的話就是宣佈正式發售MI300X。在第三財季業績發佈會上,AMD指出其AI方面的進展,預計第四財季數據中心GPU收入約爲4億美元,到2024年將超過20億美元,MI300系列產品有望成爲AMD歷史上在最短時間內達到銷售額上10億美元的產品。
而英偉達則在11月13日發佈新一代AI處理器H200,旨在培訓和部署各種人工智能模型。H200是當前H100的升級產品,集成了141GB的內存,在用於推理或生成問題答案時,性能較H100提高了60%至90%。
英偉達透露,搭載H200的系統將於2024年第二季度由英偉達的硬件合作伙伴和主要的雲服務提供商提供,包括亞馬遜雲AWS、谷歌雲和微軟雲Azure等。英偉達在上個月還表示,將從兩年一次的發佈節奏轉變爲一年一次,明年將發佈基於Blackwell架構的B100芯片。
值得一提的是,近日,有“英國英偉達”之稱的AI芯片獨角獸Graphcore稱,由於美國出臺的出口管制新規限制了公司向中國的技術銷售,公司將停止在華銷售。
“很遺憾,這意味着我們將大幅縮減在華業務。”Graphcore發言人在電子郵件中表示。但該公司拒絕透露受影響的員工人數。此前,Graphcore CEO奈傑爾·圖恩(Nigel Toon)曾把中國視爲一個潛在增長市場,尤其是英偉達被限制向中國銷售產品之後。今年10月,圖恩表示,來自中國的銷售額可能佔其公司業務的20%至25%。
如今,Graphcore已經陷入困境。該公司最新提交的文件顯示,2022年營收下降46%,虧損擴大11%至2.046億美元。去年10月,Graphcore披露需要籌集資金以維持運營。在那之後,Graphcore再未宣佈任何融資消息。美國對華禁令無疑使其雪上加霜。
對於Graphcore的最新動態以及AI芯片行業的發展現狀,記者聯繫Graphcore方面,該公司表示:“不方便評論。”國內AI芯片初創公司壁仞科技同樣也是保持沉默。
對此,資深行業分析師張慧娟表示:“芯片可能會在未來很長一段時間都是AI競爭的核心,包括國家(可參考美國對高端AI芯片出口中國的限制)、巨頭、初創公司之間。但行業發展還處於初期,未來肯定會有一輪洗牌。”
“另外,OpenAI最近的宮鬥,體現了人才對於AI的重要性。所以,算力(芯片)和人才,會是很長一段時間內AI的競爭焦點。”張慧娟說。
非雲端是突破口
上述算力提供商員工表示,英偉達十幾年建立的CUDA生態確實不容易被撼動,但是大模型也帶來了很多機會。
“從今年市場所看到的融資信息來看,AI芯片賽道整個都很冷,現有的市場有點飽和,最關鍵的是AI還沒有大量變現,很多公司部署了AI不是拿來賺錢,主要是拿來降低內部運作成本。”蘇廉節表示,“生成式AI軟件的投資有顯著的提升。”這裡的軟件指的是大模型,代表公司爲百川智能等。
蘇廉節還指出:“未來的AI芯片市場,可能不再由GPU獨霸,比較有趣的是英偉達自己怎麼看這個趨勢,可以從他們現在積極部署的新市場,去看看他們的心態。”
對於新增長戰略,英偉達在Q3財報中強調了三大要素:CPU、網絡、軟件和服務。據悉,Grace是英偉達第一款數據中心CPU,Grace和Grace Hopper將在明年全面投產,英偉達CEO黃仁勳指出,英偉達可以幫助客戶建立一個AI工廠並創收。
NVIDIA Quantum Infiniband是英偉達推出的網絡解決方案,其具有高帶寬、低時延、高可靠、易部署的特點,可實現多臺DGX計算機的高效互聯,InfiniBand同比增長了5倍。
將GPU、CPU、網絡、AI企業軟件等作爲增長引擎,是英偉達的遠期展望和技術路線,對於處於其他階段的玩家不一定適用。
蘇廉節認爲,邊緣設備或許是AI芯片賽道上其他玩家的突破口。“比如智能汽車、機器人、無人機,現在的大模型都在雲端,但它漸漸會走向終端,量就會很大。”他說。
張慧娟也持有類似觀點。“GPU在雲端大算力有絕對優勢,但是端側、邊緣側,有着非常豐富的應用類型,所以這也是其他AI芯片廠商尋求突破的點。且從市場規模來講,邊緣端增長空間很大,這也是吸引AI芯片廠商進入的一個原因。”
她還提到,國內AI芯片廠商,除了少數幾家進入雲端外,大部分集中在端側,也有一些從端側跨進邊緣,“國內芯片廠商在邊緣側突破比較大的有瑞芯微、全志,高通、NXP、瑞薩、ADI等國際芯片廠商也在大力做邊緣AI。”
需要指出的是,邊緣和端側沒有特別明確的區分或界定。“所以,很難說這家廠商只做邊緣或只做端側。其實英偉達也有邊緣AI方案,比如智能駕駛方案,也很強。英偉達、英特爾等巨頭號稱從雲到邊緣到端都做,主打一個端到端全覆蓋。”張慧娟說。
近日,聯想集團董事長兼CEO楊元慶也表示,目前大模型的用戶規模還比較小,大多數大模型都在算力較強的公有云上訓練。“未來,隨着用戶規模擴大,無論是出於數據安全和隱私保護的考慮,還是更高效率、更低成本響應用戶需求的考慮,大模型的計算負載將逐漸由雲端向邊緣側和端側下沉,越來越多的人工智能的推理任務將會在邊緣和設備端進行。”
楊元慶指出,要構建和優化大模型,支持更多生成式人工智能的應用,不僅需要提升雲端的算力,在邊緣和端側也需要更強大算力的配合,形成“端-邊-雲”混合計算架構下更平衡的算力分配。