2026年4月2日リリース

Gemma 4

パラメータあたり最も強力なオープンモデル

高度な推論とエージェントワークフロー向けに設計。Google DeepMindの革新的なオープンソースモデルファミリー — Apache 2.0ライセンス、最先端の性能、自社ハードウェアで実行可能。

4億+
Gemma 1からのダウンロード数
10万+
コミュニティバリアント
#3
Arena AIオープンモデルランキング

なぜGemma 4なのか?

Geminiを生み出した同じ研究と技術で構築

🎯

ネイティブマルチモーダル

単一モデルでテキスト、画像、音声、動画を処理。最先端の性能で複雑なマルチモーダル入力を理解。

🧠

高度な推論

複雑な推論タスクで卓越した性能。数学問題の解決、コード分析、多段階論理的課題の処理。

🤖

エージェント機能

自律的なワークフロー向けに構築。関数呼び出し、ツール使用、マルチターンインタラクションが即座に利用可能。

📚

拡張コンテキスト

最大128Kトークンの超長コンテキストウィンドウをサポート。ドキュメント分析や複雑な会話に最適。

効率的なデプロイ

4Bから27Bパラメータまで複数のサイズ。消費者向けハードウェアでローカル実行、またはクラウドでスケール。

🔓

オープン&フリー

Apache 2.0ライセンス。完全な商用利用が可能。制約なし。

モデルバリアント

ニーズに合ったサイズを選択

モデル パラメータ コンテキスト モダリティ 最適な用途
Gemma 4 4B 40億 32K テキスト エッジデバイス、モバイルアプリ
Gemma 4 12B 120億 128K テキスト + ビジョン 汎用、バランス型
Gemma 4 27B Flagship 270億 128K テキスト + ビジョン + 音声 複雑な推論、本番環境

パフォーマンス

主要なオープンモデルとの比較

MMLU Gemma 4 27B: 86.2%
HumanEval Gemma 4 27B: 78.5%
MATH Gemma 4 27B: 72.3%
GSM8K Gemma 4 27B: 91.8%

スコアが高いほど良好。公式ベンチマークからの結果。

数分で始められる

Gemma 4を実行する複数の方法

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    "google/gemma-4-27b-it",
    device_map="auto",
    torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-27b-it")

messages = [
    {"role": "user", "content": "Explain quantum computing in simple terms."}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0]))
# Install and run with Ollama
ollama run gemma4:27b

# Or pull first, then run
ollama pull gemma4:27b
ollama run gemma4:27b

# Use with API
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:27b",
  "prompt": "Explain quantum computing in simple terms."
}'
# No installation needed!
# 1. Go to https://aistudio.google.com/
# 2. Select Gemma 4 model
# 3. Start prompting

# Or use the API:
import google.generativeai as genai

genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemma-4-27b-it")

response = model.generate_content(
    "Explain quantum computing in simple terms."
)
print(response.text)

ユースケース

Gemma 4で何が作れる?

AIアシスタント

高度な推論能力を持つインテリジェントなチャットボットと仮想アシスタントを構築。

コード生成

複数のプログラミング言語でコードを生成、分析、デバッグ。

ドキュメント分析

長文ドキュメント、レポート、複数ページPDFからインサイトを抽出。

ビジョンタスク

画像理解、ビジュアルQ&A、チャート分析、OCR。

研究と教育

学術研究、チュータリングシステム、教育コンテンツ生成。

エンタープライズアプリ

カスタマーサポート、コンテンツモデレーション、ワークフロー自動化。

よくある質問

はい!Gemma 4はApache 2.0ライセンスでリリースされており、制限なく完全な商用利用が可能です。

Gemma 4 4Bは8GB以上のVRAMを持つ消費者向けGPUで実行可能。12Bモデルは16GB以上、27Bは32GB以上またはマルチGPU構成が必要。量子化版は要件を大幅に削減します。

Gemma 4 27Bは多くのベンチマークでプロプライエタリモデルと競争力のある性能を達成しながら、完全にオープンソースでローカル実行可能です。

もちろんです。Gemma 4はLoRA、QLoRA、フルファインチューニングをサポート。オープンウェイトにより、ユースケースに合わせた完全なカスタマイズが可能です。

公式ウェイトはHugging Face、Kaggle、Google AI Studioで入手可能です。上記のクイックスタートセクションをご覧ください。

Gemma 4で構築する準備はできましたか?

Gemmaを使用する数百万の開発者に参加