一、技术架构与模型规格
Gemma 4基于与Gemini 3相同的世界级研究和技术构建,是开发者可以在自有硬件上运行的最强模型系列。谷歌此次发布了四种规格的模型,针对不同硬件环境进行了精准优化:
工作站级大模型:
- 31B稠密模型:310亿参数稠密架构,追求最高输出质量,在开源模型Arena排名全球第三
- 26B混合专家模型:260亿参数MoE架构,包含128个小型专家,每次推理仅激活38亿参数,实现极快的令牌生成速度
边缘设备小模型:
- E2B模型:总参数51亿,运行时有效参数仅23亿,内存占用可压至1.5GB以下
- E4B模型:总参数80亿,运行时发挥45亿参数效果,平衡性能和功耗
二、核心能力突破
高级推理能力:Gemma 4具备多步规划和深度逻辑推理能力,在需要复杂推理的数学和指令遵循基准测试中表现出显著提升。31B稠密模型在AIME 2026数学测试中得分89.2%,在LiveCodeBench编程测试中得分80.0%。
智能体工作流支持:所有模型原生支持函数调用、结构化JSON输出和系统指令,开发者可以构建能够与不同工具和API交互并稳定执行工作流的自主智能体。
多模态能力:全系模型原生支持视频与图像处理,支持可变分辨率(70到1120个图像块),在OCR和图表理解等视觉任务中表现出色。E2B和E4B模型还具备原生音频输入功能,可用于语音识别和理解。
长上下文处理:边缘模型支持128K上下文窗口,大模型最高支持256K,可以在单次提示中处理整个代码库或长篇文档。
三、开源协议的重大变革
Gemma 4最重要的决策之一是许可证的变更。谷歌放弃了之前备受争议的限制性条款,全面采用Apache 2.0许可证。这意味着企业可以自由部署、修改和商用,不用担心谷歌单方面修改规则。
Hugging Face联合创始人兼CEO Clément Delangue评价称:"Gemma 4以Apache 2.0许可证发布是一个重要的里程碑。"这一变化让许多之前因法律审查被卡住的大公司可以放心使用和微调模型。
四、硬件适配与部署
工作站部署:26B与31B模型为让研究者在通用硬件上实现顶尖推理能力而优化,非量化bfloat16权重可高效适配单张80GB英伟达H100 GPU。量化版本可直接在消费级GPU上运行,支撑集成开发环境、编程助手与智能体工作流。
端侧部署:E2B与E4B模型从底层设计便追求极致算力与内存效率。谷歌与Pixel团队、高通、联发科等移动硬件厂商深度合作,让这些多模态模型可在手机、树莓派、英伟达Jetson Orin Nano等端侧设备上完全离线、近零延迟运行。
安卓开发者现已可在AICore开发者预览版中搭建智能体流程,实现与Gemini Nano 4的向前兼容。
五、性能表现与行业影响
在行业标准Arena AI文本榜单中,31B模型位列全球开源模型第三,26B模型位居第六。Gemma 4的表现甚至超越了规模达其20倍的模型。
对于开发者而言,这种单位参数智能水平的新高度意味着只需极低的硬件开销,即可获得前沿模型级别的能力。有网友给出了"这么小,这么牛"的评价。
六、多语言支持与生态建设
Gemma 4基于超过140种语言训练,具备多步规划和复杂逻辑推理能力,可用于构建智能体,同时支持代码生成等。这一多语言能力帮助开发者为全球用户构建包容、高性能的应用。
回顾Gemma系列的发展历程,从Gemma 1到Gemma 3,开发者下载量超过4亿次,社区衍生出10万多个变种。Gemma 4的目标很明确:让开发者在自己的硬件上就能跑出接近前沿闭源模型的智能水平,把选择权完全交还给开发者。
结语
Gemma 4的发布标志着开源AI模型发展的新阶段。它不再是单纯追求参数规模的"暴力美学",而是通过架构优化将"每一块钱的性能"做到极致。Apache 2.0协议、多规格覆盖、惊艳性能的组合,展现了谷歌在开源市场的战略决心。随着社区微调的深入,Gemma 4有望催生出更多创新应用,推动AI技术更加普惠地服务于各行各业。
