租下22 萬顆英偉達GPU 的同一天,Anthropic 向GoogleTPU 承諾了2,000 億美元

幾天前,矽谷傳出消息:Google宣布,未來五年要提供給Anthropic 的算力,規模高達5GW。緊接著,5 月6 日,這筆交易的價格被揭開——Anthropic 承諾未來五年向谷歌雲端支付約2000 億美元,用於採購5GW 的TPU 算力和雲端服務。

同一天,Anthropic 也宣布租下SpaceX 的Colossus 1 超級計算機,接入超過22 萬顆英偉達GPU 用於推理。

5GW 在資料中心產業是什麼概念?它大概相當於5 座大型核電廠滿載運轉的耗電量。這意味著Google幾乎是為了Anthropic 新建好幾座超大規模資料中心,裡面塞滿數十萬塊谷歌自己設計的TPU 晶片。而Anthropic 為此付出的承諾採購額高達2,000 億美元,佔了Google雲端積壓訂單的40% 以上。

更有趣的是這筆交易的架構:Google先向Anthropic 投入100 億美元現金(以3500 億估值),若達成里程碑再追加至400 億;同時Anthropic 承諾2,000 億美元的雲端服務和TPU 採購支出。投資是投資,採購是採購,但兩者捆綁在一起,構成了極強的鎖定效應——晶片被指定為谷歌自研的TPU。

面對這樣一份帶有排他意味的超級大單,Anthropic 也順勢調整了自己的算力版圖:在訓練側大幅向谷歌TPU 和亞馬遜Trainium 傾斜,同時仍保留英偉達GPU 在推理等場景中的角色。 5 月6 日租下SpaceX 的22 萬顆GPU,就是Anthropic 在GPU 推理側的最新動作。

對產業來說,或許,它標誌著AI 產業從「參數軍備競賽」正式轉向「算力效率競賽」的轉折點,也標誌著技術路線正在加速分化。這次切換,正在無聲而有力地改變AI 晶片的權力格局,重新定義了大模型和底層硬體之間的關係。

01 被英偉達「卡脖子」的痛

要理解Anthropic 這次的算力佈局為何重要,得先看懂過去兩年AI 算力市場有多殘酷。

自從ChatGPT 橫空出世,大模型就變成了一個「燒錢無底洞」。業界心照不宣的潛規則是:不管你融了多少錢,最後都得變成一張張採購英偉達H100 或B200 的訂單。英偉達靠著CUDA 生態的絕對壟斷,不光拿走了業界絕大部分利潤,還捏著模型廠商的命脈——黃仁勳給你發多少貨,你就能訓練多大的模型。

在這種格局下,大模型廠商的大部分利潤最終都流向了英偉達。

但局中人也不是沒有反抗的心思,尤其是那些手上有錢的雲巨頭:

谷歌心裡很憋屈:TPU 研發了十多年,一直在內部訓練Gemini,性能其實不差,但缺少外部頂級大模型的“背書”,總是被市場當成非主流。

亞馬遜也很焦慮:身為全球最大的雲廠商,AWS 每年要為英偉達繳交天價保護費。它砸了大錢研發自研晶片Trainium,急需一個標竿客戶來證明「不用英偉達也能跑頂級模型」。

Anthropic 有點特別:由Dario Amodei 等前OpenAI 核心成員獨立創立,主打安全可控。它同時拿著谷歌、亞馬遜和微軟的錢——谷歌400 億美元投資、亞馬遜累計330 億美元投資,加上2025 年11 月簽下的300 億美元微軟Azure 算力合同,處在一個微妙的三角平衡中。面對高昂的算力成本,它比誰都渴望撕開一個口子,找找算力的「平替」。

英偉達太貴、太慢、太強勢;Google有晶片但缺乏生態,亞馬遜有錢想要獨立,Anthropic 想活下去還要獲​​利。四方的訴求,在這一刻正好咬合在了一起。一場針對英偉達定價權的多邊博弈已經展開。

02 「用腳投票」:Anthropic 的算力豪賭

Anthropic 的選擇,撕裂了高昂算力成本的角落。它的本質,是用硬體的確定性,來換取模型迭代的絕對速度和成本護城河。

谷歌分階段向Anthropic 兌現算力承諾,規模預計達到5GW 等級的TPU 叢集(從2027 年起逐步上線)。同時,Google對Anthropic 的總投資額至多達400 億美元,Anthropic 對Google雲端的採購承諾則高達2,000 億美元。如此體量的算力集群,足以讓Claude 的訓練效率大幅躍升,或者讓Anthropic 同時並行推進多個行業大模型的客製化。

這些承諾背後,是TPU 在特定任務上對GPU 的真正優勢:

性價比領先:根據Google 官方數據,在大型Transformer 模型訓練場景下,TPU v6e 的性價比(效能/美元)約為同代英偉達GPU 的3 到4 倍。

能效提升:Google 資料中心PUE 約1.1,遠低於業界平均1.58,綜合營運成本優勢明顯。 SemiAnalysis 的研究報告也指出,Anthropic 的推理基礎設施毛利率已從38% 提升至70% 以上,客製化晶片路線的降本效應可見一斑。

從技術底層來看,Anthropic 早就開始尋求「去單一硬體依賴」。 2026 年3 月,Anthropic 宣布已部署百萬顆Google TPU,下一財年TPU 算力將達1GW;在訓練側,TPU 和亞馬遜Trainium 已成為核心算力來源;而在推理側,英偉達GPU 仍然扮演重要角色——5 月6 日租下SpaceX Colossus 1 的最新例子是GPU 的最新例子。再加上用JAX 框架對TPU 叢集做底層調優,Anthropic 已經形成了一個TPU 訓練主力+ Trainium 備份訓練+ GPU 推理補位的多元算力架構。

可以理解為,這是訓練到推理的全端算力重建。 Anthropic 已經用行動證明:大模型廠商不再只是硬體廠商的“提款機”,而是可以成為算力架構的“設計師”。

03 四大陣營貼身肉搏,與一個”務實”的混合算力方案

Anthropic 的轉向,像一條鯰魚,直接引爆了全球AI 晶片四大陣營的正面對決。現在的算力江湖,已經不是英偉達一家獨大了。

1. Google–Anthropic:垂直閉環的領跑者

「TPU–JAX–Claude」這條全端協同的路線,正在結出果實。根據摩根士丹利預測,2027 年TPU 對外銷售可望拿下全球AI 加速晶片市場20% 的份額。更可觀的是成本競爭力:Claude 系列在同等性能​​段內的API 定價,相比部分頭部競品更具優勢,谷歌透過硬體降本直接幫Anthropic 打出了性價比牌。

2. OpenAI:算力堆得猛,相容性拖後腿

相較之下,OpenAI 正在建立龐大的算力矩陣,已鎖定30.5GW 的長期算力合約。 2025 年10 月,OpenAI 與AMD 簽署多年期協議,部署總計6GW 的AMD Instinct GPU 算力(首期1GW MI450,2026 年下半年部署),與英偉達GPU 並行組成大規模算力集群。

但這種「大雜燴」架構付出了不小的代價:多晶片、多廠商導致算力利用率偏低,規模化的紅利被沉重的兼容性成本吃掉了。

3. 英偉達:死守基本盤,高端腹地正在被侵蝕

老大哥英威達依然握著AI 加速器市場80% 以上的份額,CUDA 生態還是它堅不可摧的護城河。但TPU 在大模型核心訓練場景中持續滲透,已經讓黃仁勳感到了壓力。 2025 年7 月,英偉達宣布CUDA 全面支援RISC-V 架構——這在以前幾乎不可想像,生態壁壘正被「客製化需求」從內部撬開。

4. 中國陣營:開源適配,換道超車

囿于外部环境,国产 AI 芯片整体市占率逆势提升。根据 IDC 数据,2025 年中国 AI 加速卡市场总出货量约 400 万张,本土厂商合计出货约 165 万张,市场份额首次突破四成,达到约 41%(中国境内市场)。例如 DeepSeek-V4(2026 年 4 月发布)已于官方技术报告中写入华为昇腾 NPU 支持,华为昇腾、摩尔线程等多家国产厂商均完成 Day 0 适配。中国厂商不拼单点极限算力,而是走“芯片 + 模型 + 场景”的快速落地路线。

格局已經改變了:AI 競爭不再是比誰買的卡多,而是「算力效率× 場景適配」的綜合暗戰。

而Anthropic 精心設計的這套混合算力方案,恰恰指明了下一代AI 基礎設施的主流方向——分工明確、冗餘可控、拒絕被單一廠商綁架。這套方案非常精明:

• 5GW 的TPU 作為訓練絕對主力,扛起核心大模型的高強度訓練; • GPU 作為”萬金油”,補位推理和多模態資料處理等任務(SpaceX Colossus 1 的22 萬顆GPU 就是最新落子); • 亞馬遜Trainium 作為戰略備份訓練算力池,壓低整體邊際成本。

這套組合拳帶來了幾個立竿見影的商業好處:供應鏈風險大幅降低(不怕被單一供應商卡脖子);Anthropic 於2025 年6 月公開的多智能體系統數據顯示,以Claude Sonnet 為主導智能體、多個Claude Haiku 為子智能體的架構,相比單智能體Claude Opus,更重要的硬體是性能的重要數據提升級;引以為傲的倫理框架,讓金融、醫療等高敏感產業的客戶敢於真正下單。

04 戴上「金手銬」的Anthropic

當然,商業世界裡沒有免費的午餐。 Anthropic 這次向TPU 深度傾斜,在換來極致訓練效率和短期成本優勢的同時,也給自己悄悄地戴上了一副「金手銬」——表面金光閃閃,實則勒得越來越緊。

首先,最直接的风险是底层架构的话语权正在旁落。深度绑定谷歌 TPU,意味着 Anthropic 未来的模型优化、算子开发、甚至推理框架的选型,都会被 TPU 的硬件迭代节奏牵着走。谷歌的 TPU 团队每推出一代新芯片,Anthropic 就得跟着重新适配甚至重写部分底层代码。短期看,这是“联合优化”;长期看,这就变成了“单向依赖”。一旦谷歌调整 TPU 的产品路线图——比如某个指令集不再支持,或者某个硬件特性被放弃——Anthropic 的适配成本和迁移风险将显著上升。

其次,多雲協同很容易變成「多雲約束」。 Anthropic 目前同時踩踏Google雲端、AWS 和微軟Azure 三艘船,聽起來很靈活:TPU 主力訓練,Trainium 備份訓練,GPU 推理。但在實際操作中,這種跨雲端架構的維護成本遠超想像。

資料要在三個雲端之間同步、任務調度要兼顧三組晶片的差異、災難復原方案要寫三份──更別提三家雲廠商各懷心思,未來會不會在價格、頻寬、優先權上互相掣肘?知情人士轉述,Anthropic 內部對多雲架構的運作複雜度早有感受。一旦某天谷歌和亞馬遜的關係微妙變化,Anthropic 就會淪為夾在中間的那個。

更隱密但更致命的,是技術獨立性的慢性流失。 Claude 的每一次模型迭代,理論上應該是為了更好的智慧和安全性。但未來,如果某個架構改變在TPU 上跑得飛快、在GPU 或Trainium 上卻表現平平,產品經理會怎麼選?大概率會「為了上線」而優先適合TPU。

久而久之,Claude 的最佳化方向將越來越受TPU 硬體特性的牽引,而非跨平台、可移植的通用大模型。這就好比一個作家,本來可以用任何紙筆寫作,後來被贊助商要求只能用某一種特製鋼筆——寫出來的東西也許更流暢,但那支鋼筆的任何缺陷,都會直接寫進他的作品裡。

拉長視野看,Anthropic 的處境其實很微妙。對比一下:

OpenAI 走的是多供應商、多晶片的「大雜燴」路線。雖然效率低、相容成本高,但好處是——沒有哪家晶片廠商能真正卡住它的脖子。微軟、英偉達、AMD 之間互相牽制,OpenAI 反而拿到了議價空間。

国产厂商如 DeepSeek 走的是开源适配路线。昇腾、寒武纪、海光……谁家芯片能在主流模型上跑出好效果,就用谁。生态是碎片化的,但也是自由的。

而Google–Anthropic 的閉環,在訓練效率上無疑是最鋒利的刀,但握住刀柄的那個人,是谷歌。 Anthropic 的核心訓練算力、迭代速度、甚至一部分技術路線,都被鎖在了Google的生態圍牆之內。不過也要承認,Anthropic 同時握有AWS Trainium、微軟Azure 和SpaceX GPU 等多條後路,這副金手銬目前還沒有完全焊死。

更令人擔心的是,這副金手銬還有一個時間軸上的陷阱。五年期的2000 億美元採購承諾,聽起來是天堂,但合約到期後呢?到那時,Anthropic 的整個技術堆疊、程式碼庫、維運體系、人才習慣,都會深度綁定TPU。想要再換回GPU 或遷移到其他晶片,成本高到幾乎不可能。屆時Google續約的條件,Anthropic 還能說「不」嗎?一位不具名的風投合夥人說得比較直白:“Anthropic 不是在租谷歌的算力,而是在用未來數年的自主權,換今天的一張船票。”

當然,不是說Anthropic 做錯了。在AI 這個燒錢如燒紙的行業,首先要活下來,其次是跑得快。只是在商業世界裡,沒有完美架構,只有階段性最優解。 Anthropic 目前拿到的是訓練速度和成本的最優解,代價是──它把一部分未來的選擇權,提前交了出去。

05 晶片沒有靈魂,但定義晶片的模型有

回看計算機這半個多世紀的歷史,Anthropic 的轉向,其實是科技界一個經典的「宿命輪迴」。

三十年前,GPU 作為專攻圖形渲染的特定晶片,靠異構運算打破了通用CPU 的壟斷;三十年後,當GPU 自己也變成了橫在AI 產業面前的「通用霸權」時,TPU、Trainium 這些更專門化的ASIC 晶片,正用同樣的邏輯發動反攻。

這意味著,AI 底層基礎設施的邏輯,正在從「暴力堆砌」轉向「精耕細作」。大模型不再是可以在任何一張顯示卡上隨便跑通的“上層軟體”,它正在變成必須與特定矽片深度耦合的“重工業實體”。

所以,Anthropic 投向客製化晶片,絕不代表GPU 會消亡,而是標誌著「通用算力大一統」時代的終結。未來的版圖注定走向分裂:英偉達GPU 依然會長久統治通用運算和推理,但在超大規模模型訓練的最核心地帶,客製化晶片將接管陣地。

英偉達的護城河依然深不見底,但水面之下,暗流已經不可逆轉。當“買卡就能做模型”的草莽時代結束,未來的競爭焦點,將從“對算力資源的粗暴囤積”,徹底升級為“對異構算力的精細調度權”和“對底層矽片架構的定義權”。

在這場沒有硝煙的底座重構中,誰掌握了定義硬體的權力,誰就拿到了下一輪競爭的關鍵籌碼。

(本文首發鈦媒體APP,作者| 矽谷Tech news,編輯| 趙虹宇)

分享你的喜愛