2026年4月2日正式发布

Gemma 4

按参数计算,最强大的开源模型

专为高级推理和智能体工作流设计。Google DeepMind 的突破性开源模型家族 —— Apache 2.0 授权,前沿性能,可在自有硬件上运行。

4亿+
自 Gemma 1 以来的下载次数
10万+
社区变体版本
#3
Arena AI 开源模型排名

为什么选择 Gemma 4?

基于创建 Gemini 的相同研究和技术构建

🎯

原生多模态

单一模型处理文本、图像、音频和视频。以最先进的性能理解复杂的多模态输入。

🧠

高级推理能力

在复杂推理任务上表现卓越。解决数学问题、分析代码、处理多步骤逻辑挑战。

🤖

智能体能力

专为自主工作流构建。开箱即用的函数调用、工具使用和多轮交互。

📚

超长上下文

支持高达 128K tokens 的超长上下文窗口。完美适用于文档分析和复杂对话。

高效部署

从 4B 到 27B 参数的多种规格。可在消费级硬件上本地运行,也可云端扩展。

🔓

开放免费

Apache 2.0 许可证。完全允许商业使用。没有任何附加条件。

模型变体

选择适合您需求的规格

模型 参数量 上下文 模态 最佳用途
Gemma 4 4B 40亿 32K 文本 边缘设备、移动应用
Gemma 4 12B 120亿 128K 文本 + 视觉 通用场景、均衡之选
Gemma 4 27B Flagship 270亿 128K 文本 + 视觉 + 音频 复杂推理、生产环境

性能表现

与领先开源模型对比

MMLU Gemma 4 27B: 86.2%
HumanEval Gemma 4 27B: 78.5%
MATH Gemma 4 27B: 72.3%
GSM8K Gemma 4 27B: 91.8%

分数越高越好。数据来自官方基准测试。

几分钟内即可开始

多种方式运行 Gemma 4

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    "google/gemma-4-27b-it",
    device_map="auto",
    torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-27b-it")

messages = [
    {"role": "user", "content": "Explain quantum computing in simple terms."}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0]))
# Install and run with Ollama
ollama run gemma4:27b

# Or pull first, then run
ollama pull gemma4:27b
ollama run gemma4:27b

# Use with API
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:27b",
  "prompt": "Explain quantum computing in simple terms."
}'
# No installation needed!
# 1. Go to https://aistudio.google.com/
# 2. Select Gemma 4 model
# 3. Start prompting

# Or use the API:
import google.generativeai as genai

genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemma-4-27b-it")

response = model.generate_content(
    "Explain quantum computing in simple terms."
)
print(response.text)

应用场景

Gemma 4 可以构建什么?

AI 助手

构建具有高级推理能力的智能聊天机器人和虚拟助手。

代码生成

跨多种编程语言生成、分析和调试代码。

文档分析

从长文档、报告和多页 PDF 中提取洞察。

视觉任务

图像理解、视觉问答、图表分析和 OCR。

研究与教育

学术研究、辅导系统和教育内容生成。

企业应用

客户支持、内容审核和工作流自动化。

常见问题

可以!Gemma 4 基于 Apache 2.0 许可证发布,允许完全商业使用,没有任何限制。

Gemma 4 4B 可在 8GB+ 显存的消费级 GPU 上运行。12B 模型需要 16GB+,27B 需要 32GB+ 或多 GPU 配置。量化版本可显著降低需求。

Gemma 4 27B 在许多基准测试中达到了与专有模型相当的性能,同时完全开源,可在本地运行。

当然可以。Gemma 4 支持 LoRA、QLoRA 和全量微调。开放的权重允许您为特定用例进行完全定制。

官方权重可在 Hugging Face、Kaggle 和 Google AI Studio 上获取。请参阅上方的快速入门部分。

准备好使用 Gemma 4 构建了吗?

加入数百万使用 Gemma 的开发者