在线亚洲国产一区二区三区-日韩亚洲欧洲人妻三区中文字幕-国产精品一区二区男女羞羞无遮挡-日韩特黄免费在线观看-视频一区二区三区免费在线视频-天天在线天天看成人免费视频-人人妻天天爽夜夜爽视频-国产极品久久久久久久久久-老司机午夜福利视频一区

資訊在沃

谷歌TPU與英偉達(dá)GPU的“算力對決”:前工程師深度剖析未來格局

   發(fā)布時間:2026-03-25 07:29 作者:顧雨柔

在人工智能算力競爭愈發(fā)激烈的當(dāng)下,英偉達(dá)憑借GPU在市場中占據(jù)主導(dǎo)地位,然而如今其地位正受到挑戰(zhàn)。近期,蘋果披露其Apple Intelligence全部由TPU訓(xùn)練;Anthropic簽下數(shù)十億美元訂單采購TPU訓(xùn)練Claude;meta也與谷歌簽署數(shù)十億美元協(xié)議租用TPU運(yùn)行Llama。這一系列動態(tài)表明,谷歌的TPU正逐漸在市場中嶄露頭角。

TPU作為谷歌的“秘密武器”,在過去十年驅(qū)動著谷歌幾乎所有核心產(chǎn)品。直到TPU訓(xùn)練的Gemini 3取得出色成果,人們才開始重新審視這款從搜索推薦系統(tǒng)中誕生的定制芯片。前谷歌TPU工程師Henry深度參與了三代TPU的研發(fā),見證了大模型時代TPU的關(guān)鍵轉(zhuǎn)型。他從硬件架構(gòu)、軟件生態(tài)、生產(chǎn)供應(yīng)鏈博弈三個維度,揭開了TPU的神秘面紗。

TPU與GPU在設(shè)計哲學(xué)上截然不同。Henry用“流水線”與“大廚們”來比喻兩者架構(gòu)差異:GPU起源于圖形處理,采用SIMT架構(gòu),如同廚房里眾多獨(dú)立思考的大廚并行處理多種任務(wù);而TPU是專為機(jī)器學(xué)習(xí)矩陣計算定制的加速器,通過芯片間互聯(lián)構(gòu)建3D Torus網(wǎng)絡(luò),讓數(shù)千張芯片協(xié)同工作,如同一張芯片,減少了調(diào)度和調(diào)控,提高了計算單元使用率。

在大規(guī)模部署場景中,TPU展現(xiàn)出獨(dú)特優(yōu)勢。Henry表示,在軟硬件深度協(xié)同下,TPU能對整顆TPU Pod進(jìn)行全局算子融合與內(nèi)存管理優(yōu)化,將硬件性能“榨干”到極致,實(shí)現(xiàn)比GPU更低的推理成本。例如,谷歌的Ironwood芯片在物理參數(shù)上接近英偉達(dá)的GB200,在訓(xùn)練Gemini模型時,若谷歌為其他大模型公司定制,性價比(TCO)可能更高。因?yàn)門PU可根據(jù)已知任務(wù)負(fù)載進(jìn)行物理芯片和軟件層面的定制,保證每個計算單元都有任務(wù),提高利用率。

然而,TPU也存在明顯短板。在軟件生態(tài)方面,盡管TPU已向外部客戶開放,但其編譯工具XLA仍是一個“黑盒”,外部團(tuán)隊(duì)難以獨(dú)立完成調(diào)優(yōu)。開發(fā)者使用TPU時,上層可選用PyTorch、JAX和TensorFlow等語言,XLA將其轉(zhuǎn)化為TPU指令,但外部開發(fā)者很難獨(dú)立處理或修補(bǔ)bug,需依賴谷歌工程師或其專門對接外部客戶的軟件組。

產(chǎn)能方面,TPU面臨諸多挑戰(zhàn)。HBM(高帶寬內(nèi)存)生產(chǎn)被SK hynix、三星和Micron三家公司壟斷,英偉達(dá)是HBM最大客戶,TPU作為次要客戶,此前難以獲得優(yōu)質(zhì)訂單。同時,CoWoS是臺積電的核心產(chǎn)能,TPU的HBM內(nèi)存芯片和計算芯片需通過2.5D stacking封裝成集成芯片,此過程谷歌和博通都無法完成,只能依賴臺積電。良率也是問題,TPU主打芯片間通信,失敗率高于GPU,且作為定制芯片,良率不佳則芯片報廢,而GPU可降級使用。

在定制芯片領(lǐng)域,TPU需提前預(yù)測模型走向。以MoE(混合專家模型)為例,此前在TPU和GPU上運(yùn)行效果不佳,直到TPU V4推出3D torus架構(gòu)和OCS(光交換機(jī)),通過軟件更改通信路徑,解決了MoE的痛點(diǎn)。但芯片設(shè)計流程漫長,從設(shè)計到量產(chǎn)最快需兩年到兩年半、三年,而模型每6個月就變化一次,TPU需在兩年前預(yù)測模型方向。雖然目前V7押對了方向,但未來若模型范式變化,TPU的先發(fā)優(yōu)勢可能被蠶食。

供應(yīng)鏈方面,博通在TPU生產(chǎn)中扮演關(guān)鍵角色。博通負(fù)責(zé)TPU的通信ICI設(shè)計,將芯片物理連接并布局拓?fù)渚W(wǎng)絡(luò)。谷歌與博通的合作可爭取到更好的CoWoS和HBM產(chǎn)能,但博通議價權(quán)逐漸增大,對谷歌成本控制不利。同時,HBM產(chǎn)能被英偉達(dá)壟斷,未來幾年HBM可能決定芯片訓(xùn)練效率上限。

回顧TPU的發(fā)展歷程,其最初是針對內(nèi)部CNN大模型的加速器,第一代僅為推理芯片。Jeff Dean和圖靈獎獲得者David Patterson深度參與了第一代架構(gòu)設(shè)計。第二代成為旗艦訓(xùn)練模型,用于AlphaGo、PaLM等訓(xùn)練。此后,針對推薦和排序算法加入Sparse Core,V5、V6進(jìn)入大模型時代,針對Transformer進(jìn)行優(yōu)化并推出推理版本。

英偉達(dá)收購的Groq公司也值得關(guān)注。Groq踩準(zhǔn)了推理、ASIC和Agent元年三個時間點(diǎn),其芯片主做推理,針對低延遲場景,是編譯器的公司而非芯片公司。創(chuàng)始人Jonathan Ross曾是TPU編譯器團(tuán)隊(duì)成員,將TPU編譯器經(jīng)驗(yàn)帶到Groq。Groq的LPU通過編譯器精準(zhǔn)確定每個計算單元任務(wù),確定性高,適合Agent、實(shí)時語音和高頻交易等對延遲要求高的場景。

隨著人工智能發(fā)展,推理芯片市場將分層并分應(yīng)用場景。谷歌和TPU將占據(jù)大規(guī)模部署的高層市場,中間和下層市場將有更多參與者。未來,TPU和GPU將并存,形成定制與通用、垂類場景相結(jié)合的健康生態(tài),為用戶帶來成本降低后的無限可能。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容