作者 / Google DeepMind 研究副總裁 Clement Farabet 和 Google DeepMind 小組產(chǎn)品經(jīng)理 Olivier Lacombe
今天,我們正式推出Gemma 4—— 這是我們迄今為止最智能的開(kāi)放模型。Gemma 4 專(zhuān)為高級(jí)推理和智能體 (Agentic) 工作流而設(shè)計(jì),實(shí)現(xiàn)了單位參數(shù)下前所未有的智能水平。這一突破性進(jìn)展源于社區(qū)的巨大推動(dòng)力: 自第一代模型發(fā)布以來(lái),Gemma 的下載量已突破 4 億次,并構(gòu)建了一個(gè)擁有超過(guò) 10 萬(wàn)個(gè)衍生模型且充滿(mǎn)活力的Gemmaverse生態(tài)系統(tǒng)。我們密切關(guān)注開(kāi)發(fā)者對(duì) AI 未來(lái)愿景的渴望,并以 Gemma 4 作為回饋: 依托Apache 2.0 許可,我們將這些突破性能力交到每一位創(chuàng)新者手中。

△ 截至 4 月 1 日,Arena.ai的 Chat Arena 中開(kāi)放模型的性能與參數(shù)規(guī)模對(duì)比。
Gemma 4 基于與 Gemini 3 相同的世界級(jí)研究和技術(shù)構(gòu)建,是您可以在自有硬件上運(yùn)行的最強(qiáng)模型系列。它們與我們的 Gemini 模型相輔相成,為開(kāi)發(fā)者提供了業(yè)內(nèi)最強(qiáng)大的開(kāi)放工具與專(zhuān)有工具組合。
業(yè)界領(lǐng)先的能力與移動(dòng)優(yōu)先的 AI
我們共發(fā)布了四種不同規(guī)格的 Gemma 4:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合專(zhuān)家模型 (MoE)以及31B Dense。全系列模型已不僅僅局限于簡(jiǎn)單的對(duì)話(huà),而是能夠輕松處理復(fù)雜的邏輯和智能體工作流。
我們更大規(guī)格的模型在同等規(guī)模下展現(xiàn)出了頂尖的性能。其中,31B 模型目前在行業(yè)標(biāo)準(zhǔn)的Arena AI 文本排行榜上名列全球開(kāi)放模型第 3 位,26B 模型則名列第 6 位。在榜單中,Gemma 4 的表現(xiàn)甚至超越了規(guī)模達(dá)其 20 倍的模型。對(duì)于開(kāi)發(fā)者而言,這種單位參數(shù)智能水平的新高度意味著只需極低的硬件開(kāi)銷(xiāo),即可獲得前沿模型級(jí)別的能力。
在邊緣側(cè),我們的 E2B 和 E4B 模型重新定義了設(shè)備端的實(shí)用性,它們優(yōu)先考慮多模態(tài)能力、低延遲處理以及無(wú)縫的生態(tài)集成,而非單純追求參數(shù)規(guī)模。
性能強(qiáng)勁,觸手可及,全面開(kāi)放
為了賦能下一代開(kāi)拓性研究和產(chǎn)品,我們專(zhuān)門(mén)設(shè)計(jì)了 Gemma 4 的模型規(guī)模,使其能夠在各種硬件上高效運(yùn)行和微調(diào) —— 從全球數(shù)十億臺(tái) Android 設(shè)備到筆記本電腦 GPU,再到開(kāi)發(fā)者工作站和加速器。
借助這些深度優(yōu)化的模型,您可以微調(diào) Gemma 4 以在特定任務(wù)上實(shí)現(xiàn)頂尖的性能。這種方法已取得顯著成效: 例如,INSAIT 構(gòu)建了以保加利亞語(yǔ)為優(yōu)先的語(yǔ)言模型 (BgGPT),我們還與耶魯大學(xué)合作開(kāi)展了Cell2Sentence-Scale項(xiàng)目,用于探索癌癥治療的新途徑。
Gemma 4 之所以能成為我們迄今最強(qiáng)大的開(kāi)放模型系列,歸功于以下核心特質(zhì):
高級(jí)推理: 能夠進(jìn)行多步規(guī)劃和深度邏輯推理,Gemma 4 在需要此類(lèi)能力的數(shù)學(xué)和指令遵循基準(zhǔn)測(cè)試中表現(xiàn)出顯著的提升。
智能體工作流: 原生支持函數(shù)調(diào)用 (Function-calling)、結(jié)構(gòu)化 JSON 輸出和原生系統(tǒng)指令,助您構(gòu)建能夠與不同工具和 API 交互并穩(wěn)定執(zhí)行工作流的自主智能體。
代碼生成: Gemma 4 支持生成高質(zhì)量的離線(xiàn)代碼,能夠?qū)⒛墓ぷ髡巨D(zhuǎn)變?yōu)楸镜貎?yōu)先的 AI 代碼助手。
視覺(jué)與音頻: 所有模型均原生支持視頻與圖像處理,支持可變分辨率,并在 OCR (光學(xué)字符識(shí)別) 和圖表理解等視覺(jué)任務(wù)中表現(xiàn)出色。此外,E2B 和 E4B 模型還具備原生音頻輸入功能,可用于語(yǔ)音識(shí)別和理解。
更長(zhǎng)的上下文: 可無(wú)縫處理長(zhǎng)文本內(nèi)容。邊緣模型支持 128K 上下文窗口,更大參數(shù)的模型則提供高達(dá) 256K 的支持,讓您可以在單次提示中處理整個(gè)代碼庫(kù)或長(zhǎng)篇文檔。
支持 140 多種語(yǔ)言: Gemma 4 經(jīng)過(guò) 140 多種語(yǔ)言的原生訓(xùn)練,幫助開(kāi)發(fā)者為全球用戶(hù)構(gòu)建包容、高性能的應(yīng)用。
適配各類(lèi)硬件的靈活模型
我們發(fā)布的 Gemma 4 模型權(quán)重針對(duì)特定硬件和使用場(chǎng)景進(jìn)行了量身定制,確保您隨時(shí)隨地都能獲得頂尖的推理能力:
26B 和 31B 模型:
在個(gè)人電腦上實(shí)現(xiàn)離線(xiàn)的前沿智能體驗(yàn)
我們未經(jīng)量化的 bfloat16 權(quán)重可以高效適配單個(gè) 80GB NVIDIA H100 GPU,旨在為研究人員和開(kāi)發(fā)者在常用硬件上提供頂尖的推理能力。對(duì)于本地配置,量化版本可在消費(fèi)級(jí) GPU 上原生運(yùn)行,為您的 IDE、編程助手和智能體工作流提供動(dòng)力。我們的26B 混合專(zhuān)家模型 (MoE)專(zhuān)注于低延遲,推理時(shí)僅激活 38 億參數(shù),提供極快的每秒 Token 生成數(shù);而31B Dense則追求極致的原始質(zhì)量,為微調(diào)提供了強(qiáng)大的基礎(chǔ)。

△這些模型通過(guò)大量不同的數(shù)據(jù)集和指標(biāo)進(jìn)行了評(píng)估,以涵蓋文本生成的各個(gè)方面。請(qǐng)前往我們的Model Card中查看其他的基準(zhǔn)測(cè)試。
E2B 和 E4B 模型:
移動(dòng)和物聯(lián)網(wǎng)設(shè)備智能的新高度
這些模型從底層開(kāi)始構(gòu)建,旨在實(shí)現(xiàn)計(jì)算和內(nèi)存效率的最大化,在推理時(shí)分別激活 20 億和 40 億的有效參數(shù),以節(jié)省內(nèi)存和延長(zhǎng)電池壽命。通過(guò)與 Google Pixel 團(tuán)隊(duì)以及高通 (Qualcomm Technologies)、聯(lián)發(fā)科 (MediaTek) 等移動(dòng)硬件領(lǐng)軍企業(yè)的緊密合作,這些多模態(tài)模型可以在手機(jī)、樹(shù)莓派 (Raspberry Pi)、NVIDIA Jetson Orin Nano 等邊緣設(shè)備上實(shí)現(xiàn)近乎零延遲的完全離線(xiàn)運(yùn)行。Android 開(kāi)發(fā)者現(xiàn)在即可在AICore 開(kāi)發(fā)者預(yù)覽版中原型化智能體流程,實(shí)現(xiàn)與 Gemini Nano 4 的前向兼容。
開(kāi)源許可
我們悉心聽(tīng)取了大家的反饋。構(gòu)建 AI 的未來(lái)需要通力合作,我們相信賦能開(kāi)發(fā)者生態(tài)不應(yīng)設(shè)限。因此,Gemma 4 采用商業(yè)友好的Apache 2.0 許可發(fā)布。
Apache 2.0 許可
https://goo.gle/gemma-4-apache-2
這一開(kāi)源許可為開(kāi)發(fā)者實(shí)現(xiàn)充分的靈活性和數(shù)字主權(quán)奠定了基礎(chǔ),賦予您對(duì)數(shù)據(jù)、基礎(chǔ)架構(gòu)和模型的完全控制權(quán)。它允許您在任何環(huán)境 (無(wú)論是本地部署還是云端) 中自由構(gòu)建并安全部署。
"Gemma 4 采用 Apache 2.0 許可發(fā)布是一個(gè)巨大的里程碑。我們非常激動(dòng)能在發(fā)布首日就在 Hugging Face 上支持 Gemma 4 系列。"
Clément Delangue,Hugging Face 聯(lián)合創(chuàng)始人兼 CEO
以信任與安全為基石
和我們的專(zhuān)有模型一樣,這些模型遵循嚴(yán)苛的基礎(chǔ)架構(gòu)安全協(xié)議。通過(guò)選擇 Gemma 4,企業(yè)和主權(quán)組織可以獲得一個(gè)值得信賴(lài)且透明的基礎(chǔ),在滿(mǎn)足最高安全和可靠性標(biāo)準(zhǔn)的同時(shí),交付頂尖的能力。
多元選擇的生態(tài)系統(tǒng)
立即開(kāi)始試驗(yàn): 即刻獲取 Gemma 4 訪(fǎng)問(wèn)權(quán)限并開(kāi)始構(gòu)建。在Google AI Studio(31B 和 26B MoE) 或 GoogleAI Edge Gallery(E4B 和 E2B) 中探索 Gemma 4。在Android 開(kāi)發(fā)方面,可使用它驅(qū)動(dòng)Android Studio中的智能體模式 (Agent Mode),并開(kāi)始使用ML Kit GenAI Prompt API構(gòu)建可投入生產(chǎn)環(huán)境的 Android 應(yīng)用。
使用您喜愛(ài)的工具: 發(fā)布首日即支持Hugging Face(Transformers, TRL, Transformers.js, Candle),LiteRT-LM, vLLM, llama.cpp,MLX,Ollama,NVIDIA NIM和NeMo,LM Studio,Unsloth, SGLang, Cactus,Baseten,Docker, MaxText, Tunix, Keras,您可以根據(jù)項(xiàng)目需求靈活選擇最合適的工具。
下載模型: 前往Hugging Face、Kaggle或Ollama獲取模型權(quán)重。
根據(jù)您的特定需求定制 Gemma 4: 借助您首選的平臺(tái) (如 Google Colab、Vertex AI甚至您的游戲 GPU) 對(duì)模型進(jìn)行訓(xùn)練與適配。
在 Google Cloud 上擴(kuò)展至生產(chǎn)環(huán)境: 雖然本地設(shè)備端推理是離線(xiàn)使用的理想選擇,但 Google Cloud 打破了所有算力瓶頸。您可以根據(jù)需求通過(guò) Vertex AI、Cloud Run、GKE、Sovereign Cloud 及 TPU 加速推理服務(wù)進(jìn)行部署,并獲得針對(duì)受監(jiān)管工作負(fù)載的最高級(jí)別合規(guī)保障。您可以進(jìn)一步了解如何在 Google Cloud 上快速入門(mén)。
跨多硬件平臺(tái)加速 AI 開(kāi)發(fā):Gemma 4 針對(duì)業(yè)界領(lǐng)先的硬件進(jìn)行了優(yōu)化,實(shí)現(xiàn)開(kāi)箱即用。您可以在從 NVIDIA Jetson Orin Nano 到 Blackwell GPU 的 NVIDIA AI 基礎(chǔ)設(shè)施上體驗(yàn)極致性能,通過(guò)開(kāi)源 ROCm 棧與 AMD GPU 集成,或在 Trillium 和 Ironwood TPU 上進(jìn)行大規(guī)模部署和高效運(yùn)算。
以技術(shù)創(chuàng)造深遠(yuǎn)影響:參加 Kaggle 上的Gemma 4 Good 挑戰(zhàn)賽,構(gòu)建能夠?yàn)槭澜鐜?lái)深遠(yuǎn)且積極影響的作品。
-
Google
+關(guān)注
關(guān)注
5文章
1816瀏覽量
60653 -
模型
+關(guān)注
關(guān)注
1文章
3831瀏覽量
52287 -
智能體
+關(guān)注
關(guān)注
1文章
574瀏覽量
11647
原文標(biāo)題:Gemma 4 現(xiàn)已發(fā)布: 同等規(guī)模下性能最強(qiáng)的開(kāi)放模型
文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
在Google AI Edge Gallery中探索Gemma 4的Agent Skills
天數(shù)智芯Day 0適配MiniMax最新開(kāi)源M2.7大模型
谷歌推出TranslateGemma全新開(kāi)放翻譯模型系列
谷歌正式發(fā)布Gemma Scope 2模型
借助谷歌FunctionGemma模型構(gòu)建下一代端側(cè)智能體
NVIDIA在CES 2026發(fā)布全新開(kāi)放模型、數(shù)據(jù)和工具
深入解析NVIDIA Nemotron 3系列開(kāi)放模型
NVIDIA 推出 Nemotron 3 系列開(kāi)放模型
谷歌推出AI模型Gemma 3 270M
2025聯(lián)想創(chuàng)新開(kāi)放日正式開(kāi)啟
亞馬遜云科技現(xiàn)已上線(xiàn)OpenAI開(kāi)放權(quán)重模型
谷歌Gemma 3n模型的新功能
谷歌Gemma 3n預(yù)覽版全新發(fā)布
樹(shù)莓派5上的Gemma 2:如何打造高效的邊緣AI解決方案?
Google正式推出最新開(kāi)放模型Gemma 4
評(píng)論