Gemma 4
按参数计算,最强大的开源模型
专为高级推理和智能体工作流设计。Google DeepMind 的突破性开源模型家族 —— Apache 2.0 授权,前沿性能,可在自有硬件上运行。
为什么选择 Gemma 4?
基于创建 Gemini 的相同研究和技术构建
原生多模态
单一模型处理文本、图像、音频和视频。以最先进的性能理解复杂的多模态输入。
高级推理能力
在复杂推理任务上表现卓越。解决数学问题、分析代码、处理多步骤逻辑挑战。
智能体能力
专为自主工作流构建。开箱即用的函数调用、工具使用和多轮交互。
超长上下文
支持高达 128K tokens 的超长上下文窗口。完美适用于文档分析和复杂对话。
高效部署
从 4B 到 27B 参数的多种规格。可在消费级硬件上本地运行,也可云端扩展。
开放免费
Apache 2.0 许可证。完全允许商业使用。没有任何附加条件。
模型变体
选择适合您需求的规格
| 模型 | 参数量 | 上下文 | 模态 | 最佳用途 |
|---|---|---|---|---|
| Gemma 4 4B | 40亿 | 32K | 文本 | 边缘设备、移动应用 |
| Gemma 4 12B | 120亿 | 128K | 文本 + 视觉 | 通用场景、均衡之选 |
| Gemma 4 27B Flagship | 270亿 | 128K | 文本 + 视觉 + 音频 | 复杂推理、生产环境 |
性能表现
与领先开源模型对比
分数越高越好。数据来自官方基准测试。
几分钟内即可开始
多种方式运行 Gemma 4
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"google/gemma-4-27b-it",
device_map="auto",
torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-27b-it")
messages = [
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0])) # Install and run with Ollama
ollama run gemma4:27b
# Or pull first, then run
ollama pull gemma4:27b
ollama run gemma4:27b
# Use with API
curl http://localhost:11434/api/generate -d '{
"model": "gemma4:27b",
"prompt": "Explain quantum computing in simple terms."
}' # No installation needed!
# 1. Go to https://aistudio.google.com/
# 2. Select Gemma 4 model
# 3. Start prompting
# Or use the API:
import google.generativeai as genai
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemma-4-27b-it")
response = model.generate_content(
"Explain quantum computing in simple terms."
)
print(response.text) 应用场景
Gemma 4 可以构建什么?
AI 助手
构建具有高级推理能力的智能聊天机器人和虚拟助手。
代码生成
跨多种编程语言生成、分析和调试代码。
文档分析
从长文档、报告和多页 PDF 中提取洞察。
视觉任务
图像理解、视觉问答、图表分析和 OCR。
研究与教育
学术研究、辅导系统和教育内容生成。
企业应用
客户支持、内容审核和工作流自动化。
常见问题
可以!Gemma 4 基于 Apache 2.0 许可证发布,允许完全商业使用,没有任何限制。
Gemma 4 4B 可在 8GB+ 显存的消费级 GPU 上运行。12B 模型需要 16GB+,27B 需要 32GB+ 或多 GPU 配置。量化版本可显著降低需求。
Gemma 4 27B 在许多基准测试中达到了与专有模型相当的性能,同时完全开源,可在本地运行。
当然可以。Gemma 4 支持 LoRA、QLoRA 和全量微调。开放的权重允许您为特定用例进行完全定制。
官方权重可在 Hugging Face、Kaggle 和 Google AI Studio 上获取。请参阅上方的快速入门部分。