人工智能 · 2026年4月21日 0

Gemma 4 正式开源,开源领域迎来新变化!

在4月3日的凌晨,谷歌DeepMind推出了新一代开源大模型GeMa 4,正式发布并以Apache 2.0协议向全球开发者开放。这是自2025年3月推出GeMa 3以来,谷歌一年内的重要更新。

此次发布的GeMa 4提供了四个不同版本:E2B(200亿参数)、E4B(40亿参数)、26B混合专家模型(MoE)以及3B稠密模型(Dense),满足从手机到服务器的不同需求。

谷歌CEO DeMis Ha在社交媒体上以四颗钻石emoji暗示此次发布,并称其为“全球同类中最佳的开源模型”。

GeMa 4的最大亮点在于其开源协议的改变,以前的GeMa系列采用谷歌定制条款,限制开发者的使用和分发。而GeMa 4采用Apache 2.0协议,无任何使用限制,允许自由修改和商业化使用,消除了开发者的顾虑。

这一变化使得企业和个人开发者可以自由地对GeMa 4进行修改和分发,避免了授权收回的问题,这对于之前转向其他模型的团队来说是个重要的突破。

在性能方面,GeMa 4 3B Dense版本在ARena AI文本开源排行榜上排名第三,Elo评分为145,仅次于GLM-5和KiMi 2.5,且其参数量仅为前两者的三十分之一,展示了出色的“参数效率”。

26B MoE版本同样表现突出,260亿参数中推理时仅激活38亿,Elo达到144,位列开源榜单第六。这表明在小型设备上运行的模型,其响应质量可与一年前的云端大模型相媲美。

具体数据也显示出GeMa 4的提升,相比GeMa 3 27B,GeMa 4 3B在多个基准测试中都有显著提升,数学习推理基准AI ME 20 26的得分从20.8%跃升至89.2%。

所有版本都支持图像和视频输入,3B版本还增加了音频编码器,支持语音识别和翻译。在多模态推理测试中,3B版本的得分达到了76.9%。

GeMa 4在硬件适配方面表现全面,3B Dense可在单张80GB NVIDIA H100显卡上运行,量化版本也能在消费级显卡上使用。26B MoE则优化了低延迟,适合实时应用。

E2B和E4B经过与谷歌Pixel、Qualcomm及联发科的优化,可在手机和树莓派上离线运行,内存占用可低于1.5GB,真正实现了端侧AI的部署。

此外,GeMa 4还内置“思考模式”,在输出答案前进行内部推理,提高了多步骤任务的准确性。它原生支持函数调用和结构化JSON输出,并发布了开源Agent开发工具包(ADK),使端侧模型具备智能体功能。

自GeMa系列首次发布以来,开发者的下载量已超过4亿,创建了一个拥有10万个变体的生态系统。GeMa 4的发布不仅是技术上的飞跃,也是开源领域的一次权力重组。

目前,GeMa 4已在多个平台上免费提供,对于全球开发者来说,这个开源、高性能且可在本地运行的AI模型,将变得更加触手可及。