«

Gemma 4:逐字节对比,性能最强的开源模型。

qimuai 发布于 阅读:1 一手编译


Gemma 4:逐字节对比,性能最强的开源模型。

内容来源:https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

内容总结:

谷歌发布迄今最强开源模型系列Gemma 4,以极致能效比推动AI普惠

谷歌今日正式推出其新一代开源大模型系列Gemma 4,该系列被官方称为迄今为止“能力最强的开源模型”。Gemma 4基于与旗舰模型Gemini 3同源的世界级研究与技术构建,旨在为开发者社区提供高性能、易获取的先进人工智能工具。

核心突破:参数效率与能力飞跃

Gemma 4系列包含四个精心设计的尺寸:高效2B(E2B)、高效4B(E4B)、260亿参数混合专家模型(26B MoE)以及310亿参数稠密模型(31B Dense)。其最大亮点在于实现了“前所未有的单位参数智能水平”。例如,310亿参数模型在业界权威的Arena AI文本排行榜上已位列全球开源模型第三,其性能可媲美参数量大20倍的模型。这意味着开发者能够以更低的硬件成本获得接近前沿水平的AI能力。

面向多元场景的专用设计

该模型系列针对不同硬件平台进行了深度优化:

全面升级的模型能力

Gemma 4超越了简单的对话功能,在多个关键维度实现显著提升:

坚持开放与协作的生态理念

秉承开源精神,Gemma 4采用商业友好的Apache 2.0许可证发布,赋予开发者对其数据、基础设施和模型的完全控制权。谷歌表示,此举旨在消除限制性壁垒,通过协作共建AI未来。

模型现已通过Google AI Studio、Hugging Face、Kaggle、Ollama等平台提供,并获得了从Hugging Face生态、vLLM到MLX等主流工具链的广泛支持。开发者可便捷地获取模型权重,并利用Google Colab、Vertex AI乃至消费级GPU进行微调与部署。对于需要大规模生产级部署的用户,Google Cloud也提供了完整的解决方案。

谷歌强调,Gemma 4与其专有的Gemini模型形成互补,共同为开发者提供了业界最强大的“开源+闭源”工具组合,有望推动从学术研究到全球应用开发的下一波创新浪潮。

中文翻译:

Gemma 4:以同等参数量实现最强性能的开源模型
今日,我们正式推出迄今为止最智能的开源模型系列——Gemma 4。该系列专为高级推理与智能体工作流打造,实现了前所未有的“单位参数智能密度”突破。这一成就源于蓬勃发展的社区生态:自第一代模型发布以来,开发者已累计下载 Gemma 超 4 亿次,并构建了超过 10 万个变体模型的 Gemmaverse 生态。我们深入聆听创新者拓展人工智能边界的需求,Gemma 4 正是我们的回应:以 Apache 2.0 开源协议提供突破性能力,让前沿技术触手可及。
(截至 4 月 1 日 Arena.ai 聊天竞技场开源模型性能与规模对比图)

基于与 Gemini 3 同源的世界级研究技术,Gemma 4 成为您可在自有硬件上运行的最强大模型系列。它们与 Gemini 模型形成互补,为开发者提供业界最强大的开源与专有工具组合。

行业领先能力与移动优先人工智能
Gemma 4 提供四种灵活规格:高效 2B 版(E2B)、高效 4B 版(E4B)、260 亿参数专家混合模型(26B MoE)及 310 亿参数稠密模型(31B Dense)。全系列模型超越基础对话功能,可处理复杂逻辑与智能体工作流。其中大规格模型在同等规模中实现顶尖性能:31B 模型目前位列行业标准 Arena AI 文本排行榜全球开源模型第三名,26B 模型位居第六。在此基准测试中,Gemma 4 的性能甚至超越规模达其 20 倍的模型。对开发者而言,这种单位参数智能密度的跃升意味着能以更低硬件开销实现前沿能力。

在边缘设备场景,E2B 与 E4B 模型重新定义了终端设备效用,优先关注多模态能力、低延迟处理及无缝生态集成,而非单纯追求参数数量。

强大、易用、开放
为赋能新一代前沿研究与产品,我们特别设计 Gemma 4 模型规格,使其能在各类硬件上高效运行与微调——从全球数十亿安卓设备到笔记本电脑 GPU,乃至开发者工作站与加速器。

通过使用这些高度优化的模型,您可针对特定任务微调 Gemma 4 以获得顶尖性能。该方法已取得显著成果:例如 INSAIT 基于此创建了开创性的保加利亚语优先语言模型(BgGPT),我们与耶鲁大学合作推进 Cell2Sentence-Scale 项目以探索癌症治疗新路径等。

Gemma 4 成为我们迄今最强大开源模型系列的核心优势包括:

适配多元硬件的灵活模型
我们针对特定硬件与用例发布定制化规格的 Gemma 4 模型权重,确保您在任何场景都能获得前沿级推理能力:

26B 与 31B 模型:在个人计算机实现离线前沿智能
为研究者和开发者在易得硬件上提供顶尖推理能力而优化:未量化 bfloat16 权重可高效运行于单张 80GB NVIDIA H100 GPU;量化版本可在消费级 GPU 原生运行,赋能 IDE、代码助手与智能体工作流。其中 26B 专家混合模型专注低延迟,推理时仅激活 38 亿参数以实现极快 token 生成速度;31B 稠密模型则追求极致质量,为微调提供强大基础。
(模型性能评估涵盖多维度文本生成数据集与指标,详见模型卡片)

E2B 与 E4B 模型:为移动与物联网设备带来智能新高度
专为最大化计算与内存效率设计,推理时分别仅激活 20 亿与 40 亿有效参数以节省内存与电量。通过与 Google Pixel 团队及高通技术、联发科等移动硬件领军者深度合作,这些多模态模型可在手机、树莓派、NVIDIA Jetson Orin Nano 等边缘设备实现近零延迟的完全离线运行。Android 开发者现可通过 AICore 开发者预览版进行智能体流程原型设计,确保与 Gemini Nano 4 的前向兼容性。

开源协议承诺
我们倾听社区反馈,坚信构建 AI 未来需要协作精神。为此 Gemma 4 采用商业友好的 Apache 2.0 协议发布,旨在赋能开发者生态,消除限制性壁垒。

该开源协议为开发者提供完全灵活性与数字主权基础:您可全面掌控数据、基础设施与模型,自由构建并安全部署于任何环境(本地或云端)。

基于信任与安全的基石
本系列模型遵循与专有模型同等严格的基础设施安全协议。企业与主权机构选择 Gemma 4 即获得可信赖、透明的技术基础,在满足最高安全可靠性标准的同时享受前沿能力。

多元生态选择

英文来源:

Gemma 4: Byte for byte, the most capable open models
Today, we are introducing Gemma 4 — our most intelligent open models to date. Purpose-built for advanced reasoning and agentic workflows, Gemma 4 delivers an unprecedented level of intelligence-per-parameter. This breakthrough builds on incredible community momentum: since the launch of our first generation, developers have downloaded Gemma over 400 million times, building a vibrant Gemmaverse of more than 100,000 variants. We listened closely to what innovators need next to push the boundaries of AI, and Gemma 4 is our answer: breakthrough capabilities made widely accessible under an Apache 2.0 license.
Open model performance vs size on Arena.ai’s chat arena as of 4/1.
Built from the same world-class research and technology as Gemini 3, Gemma 4 is the most capable model family you can run on your hardware. They complement our Gemini models, giving developers the industry's most powerful combination of both open and proprietary tools.
Industry-leading capabilities and mobile-first AI
We are releasing Gemma 4 in four versatile sizes: Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) and 31B Dense. The entire family moves beyond simple chat to handle complex logic and agentic workflows. Our larger models deliver state-of-the-art performance for their sizes, with the 31B model currently ranking as the #3 open model in the world on the industry-standard Arena AI text leaderboard, and the 26B model securing the #6 spot. There, Gemma 4 outcompetes models 20x its size. For developers, this new level of intelligence-per-parameter means achieving frontier-level capabilities with significantly less hardware overhead.
At the edge, our E2B and E4B models redefine on-device utility, prioritizing multimodal capabilities, low-latency processing and seamless ecosystem integration over raw parameter count.
Powerful, accessible, open
To power the next generation of pioneering research and products, we've sized the Gemma 4 models specifically to run and fine-tune efficiently on hardware — from billions of Android devices worldwide, to laptop GPUs, all the way up to developer workstations and accelerators.
By using these highly optimized models, you can fine-tune Gemma 4 to achieve state-of-the-art performance on your specific tasks. We've already seen incredible success with this approach; for instance, INSAIT created a pioneering Bulgarian-first language model (BgGPT), and we worked with Yale University on Cell2Sentence-Scale to discover new pathways for cancer therapy, among many others.
Here is what makes Gemma 4 our most capable open model family yet:

谷歌新消息

文章目录


    扫描二维码,在手机上阅读