Google據報正大幅加緊在AI芯片領域與Nvidia英偉達(美:NVDA)展開競爭,facebook母企Meta(美:META)有望成為其價值數十億美元的潛在客戶。
Google母企Alphabet(美:GOOGL)股價夜盤再升逾3%,報330.09美元,英偉達夜盤則跌2%,報178.67美元。
積極推動將TPU部署到客戶資料中心
Google多年來一直將其客製化張量處理單元Tensor Processing Unit(TPU) 僅用於自家雲端資料中心,並將其出租給運行大規模AI工作負載的公司。報道最新指,Google正積極推動將這些芯片部署到客戶自己的資料中心,標誌著其策略重大轉變,而META就是其中一位客戶。
據The Information報道,META正洽談斥資數十億美元,計劃從2027年開始在其數據中心整合Google的TPU,同時還計劃最早於明年從Google雲端租用TPU容量。 Meta目前主要依賴英偉達的GPU來建立其AI基礎設施。
或有助從英偉達手中奪取高達10%年收入
這筆交易意義重大。Google雲端內部高層表示,擴大TPU的應用範圍,或有助於公司從英偉達手中奪取高達10%的年收入,價值數十億美元。
據透露,Google在向企業推銷這項方案時強調,客戶表示希望在自己的資料中心部署芯片以滿足更高的安全性和合規標準要求,特別是對敏感資料的處理。Google也指出,TPU可能對在自有設施運行AI模型的高頻交易公司特別有幫助。
為支持這項名為「TPU@Premises」的新計劃,Google開發了「TPU command center」軟件,旨在讓客戶更容易使用這些芯片。這款軟件被視為Google對抗英偉達最大優勢之一Cuda軟件的利器。 Cuda已成為AI開發者的事實標準,開發者對如何使用它在英偉達芯片上運行模型非常熟悉。盡管Google的Jax程式語言對開發者來說較為陌生,但Google已告知客戶,他們可使用與PyTorch相關的軟件來操作TPU,而無需成為Jax專家。
去年開始更積極擴大TPU市場
Google去年夏天開始更積極擴大TPU市場。公司開始接觸主要租用英偉達芯片的小型雲端服務商,提議讓他們在資料中心託管TPU。Google至少與其中一家雲端服務商Fluidstack達成協議,在紐約資料中心託管TPU。作為協議的一部分,Google提供難以拒絕的條款:Fluidstack若無法支付即將到期的紐約數據中心租約費用,Google將作為後盾,提供高達32億美元的支持。
Google本月發布的Gemini 3大語言模型引發市場劇烈反應,表現已接近甚至超越OpenAI的ChatGPT。這項技術突破令投資者重新評估AI芯片市場格局。Gemini 3主要在Google的TPU上訓練,而非像競爭對手那樣依賴英偉達芯片。雖然TPU不如英偉達GPU靈活,但開發成本更低,滿載運轉時功耗也更小。
一些開發者認為,Google憑藉TPU已縮小了英偉達在為訓練新大型AI模型所需的密集伺服器叢集提供動力方面的領先優勢。知情人士透露,Meta與Google討論使用TPU訓練新的AI模型,而不僅僅是為現有Meta模型提供推理支援。這一點值得注意,因大多數分析師先前一直認為,挑戰英偉達的最大機會在於推理芯片,而訓練芯片市場英偉達難以被撼動。