谷歌DeepMind近日正式推出全新開放權(quán)重模型系列Gemma 4,采用Apache 2.0許可證替代此前備受爭議的專屬協(xié)議。這一轉(zhuǎn)變被Hugging Face聯(lián)合創(chuàng)始人Clément Delangue稱為"開源生態(tài)的重要里程碑",意味著企業(yè)可自由部署、修改及商業(yè)化應(yīng)用,無需擔(dān)憂法律條款變更風(fēng)險。該系列模型與谷歌旗艦級Gemini共享技術(shù)底座,標(biāo)志著前沿AI研究成果首次以開放形式向開發(fā)者全面開放。
Gemma 4系列包含四個版本,覆蓋從移動端到數(shù)據(jù)中心的全場景需求。工作站級模型提供兩種選擇:310億參數(shù)的稠密模型專注極致輸出質(zhì)量,在AIME 2026數(shù)學(xué)測試中取得89.2%的準(zhǔn)確率;260億參數(shù)的混合專家模型通過動態(tài)激活128個專家模塊中的部分單元,實際運行參數(shù)僅38億,在保持88.3%數(shù)學(xué)準(zhǔn)確率的同時,推理速度提升40%。這兩個大模型均支持25.6萬token的超大上下文窗口,可一次性處理完整代碼庫或長篇文檔。
針對邊緣設(shè)備優(yōu)化的E2B和E4B模型展現(xiàn)突破性創(chuàng)新。E2B采用分層嵌入技術(shù),將51億參數(shù)壓縮至23億實際計算量,在保持性能的同時降低功耗;E4B則通過類似技術(shù)使80億參數(shù)模型達到45億參數(shù)的運行效率。這兩個輕量級模型新增本地語音處理能力,支持實時語音識別與翻譯,所有計算均在設(shè)備端完成,確保用戶數(shù)據(jù)隱私安全。
在開發(fā)友好性方面,全系列模型原生支持函數(shù)調(diào)用與結(jié)構(gòu)化輸出,開發(fā)者可構(gòu)建自主決策的智能體系統(tǒng)。本地化代碼生成功能使模型能作為AI編程助手直接運行于個人電腦,避免云端傳輸帶來的安全風(fēng)險。視覺能力顯著升級,支持70至1120塊的可變分辨率圖像分割,可靈活應(yīng)對簡單分類到復(fù)雜OCR識別的不同任務(wù)需求,更具備多圖同步分析與視頻幀序列處理能力。
性能測試數(shù)據(jù)顯示,310億參數(shù)模型在LiveCodeBench編程測試中取得80.0%準(zhǔn)確率,Codeforces算法競賽評分達2150分,其混合專家版本也分別獲得77.1%和相近水平表現(xiàn)。邊緣模型同樣表現(xiàn)亮眼,E4B在相同測試中取得42.5%和52.0%的成績,超越前代270億參數(shù)的Gemma 3模型。這種"小體積、高性能"的特性獲得開發(fā)者社區(qū)"這么小,這么牛"的高度評價。
技術(shù)部署層面,谷歌提供完整的本地化運行方案。260億參數(shù)模型經(jīng)4位量化后可適配24GB顯存的消費級顯卡,310億參數(shù)版本量化后也能在普通工作站運行。同步推出的量化感知訓(xùn)練技術(shù)確保模型精度損失控制在3%以內(nèi)。目前該系列已登陸Hugging Face、Kaggle等主流平臺,獲得vLLM、SGLang等推理框架支持,開發(fā)者可即刻下載使用。
硬件生態(tài)合作取得實質(zhì)性進展。高通與聯(lián)發(fā)科針對Gemma 4小模型完成芯片級優(yōu)化,使移動端推理能效提升35%。安卓開發(fā)者可通過AICore預(yù)覽版體驗智能體工作流,未來將與Gemini Nano 4實現(xiàn)無縫兼容。這種軟硬協(xié)同的優(yōu)化策略,使消費級設(shè)備得以運行接近前沿閉源模型的智能系統(tǒng)。
自初代Gemma發(fā)布以來,該系列累計下載量突破4億次,社區(qū)衍生出超過10萬個定制版本。Gemma 4的推出標(biāo)志著谷歌AI戰(zhàn)略的重要轉(zhuǎn)向——通過開放最先進的技術(shù)成果,構(gòu)建開發(fā)者主導(dǎo)的創(chuàng)新生態(tài)。這種轉(zhuǎn)變不僅消除了企業(yè)用戶長期擔(dān)憂的法律風(fēng)險,更為AI技術(shù)的普及化應(yīng)用開辟了新路徑。





















