Gemma 4
パラメータあたり最も強力なオープンモデル
高度な推論とエージェントワークフロー向けに設計。Google DeepMindの革新的なオープンソースモデルファミリー — Apache 2.0ライセンス、最先端の性能、自社ハードウェアで実行可能。
なぜGemma 4なのか?
Geminiを生み出した同じ研究と技術で構築
ネイティブマルチモーダル
単一モデルでテキスト、画像、音声、動画を処理。最先端の性能で複雑なマルチモーダル入力を理解。
高度な推論
複雑な推論タスクで卓越した性能。数学問題の解決、コード分析、多段階論理的課題の処理。
エージェント機能
自律的なワークフロー向けに構築。関数呼び出し、ツール使用、マルチターンインタラクションが即座に利用可能。
拡張コンテキスト
最大128Kトークンの超長コンテキストウィンドウをサポート。ドキュメント分析や複雑な会話に最適。
効率的なデプロイ
4Bから27Bパラメータまで複数のサイズ。消費者向けハードウェアでローカル実行、またはクラウドでスケール。
オープン&フリー
Apache 2.0ライセンス。完全な商用利用が可能。制約なし。
モデルバリアント
ニーズに合ったサイズを選択
| モデル | パラメータ | コンテキスト | モダリティ | 最適な用途 |
|---|---|---|---|---|
| Gemma 4 4B | 40億 | 32K | テキスト | エッジデバイス、モバイルアプリ |
| Gemma 4 12B | 120億 | 128K | テキスト + ビジョン | 汎用、バランス型 |
| Gemma 4 27B Flagship | 270億 | 128K | テキスト + ビジョン + 音声 | 複雑な推論、本番環境 |
パフォーマンス
主要なオープンモデルとの比較
スコアが高いほど良好。公式ベンチマークからの結果。
数分で始められる
Gemma 4を実行する複数の方法
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"google/gemma-4-27b-it",
device_map="auto",
torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-27b-it")
messages = [
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0])) # Install and run with Ollama
ollama run gemma4:27b
# Or pull first, then run
ollama pull gemma4:27b
ollama run gemma4:27b
# Use with API
curl http://localhost:11434/api/generate -d '{
"model": "gemma4:27b",
"prompt": "Explain quantum computing in simple terms."
}' # No installation needed!
# 1. Go to https://aistudio.google.com/
# 2. Select Gemma 4 model
# 3. Start prompting
# Or use the API:
import google.generativeai as genai
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemma-4-27b-it")
response = model.generate_content(
"Explain quantum computing in simple terms."
)
print(response.text) ユースケース
Gemma 4で何が作れる?
AIアシスタント
高度な推論能力を持つインテリジェントなチャットボットと仮想アシスタントを構築。
コード生成
複数のプログラミング言語でコードを生成、分析、デバッグ。
ドキュメント分析
長文ドキュメント、レポート、複数ページPDFからインサイトを抽出。
ビジョンタスク
画像理解、ビジュアルQ&A、チャート分析、OCR。
研究と教育
学術研究、チュータリングシステム、教育コンテンツ生成。
エンタープライズアプリ
カスタマーサポート、コンテンツモデレーション、ワークフロー自動化。
よくある質問
はい!Gemma 4はApache 2.0ライセンスでリリースされており、制限なく完全な商用利用が可能です。
Gemma 4 4Bは8GB以上のVRAMを持つ消費者向けGPUで実行可能。12Bモデルは16GB以上、27Bは32GB以上またはマルチGPU構成が必要。量子化版は要件を大幅に削減します。
Gemma 4 27Bは多くのベンチマークでプロプライエタリモデルと競争力のある性能を達成しながら、完全にオープンソースでローカル実行可能です。
もちろんです。Gemma 4はLoRA、QLoRA、フルファインチューニングをサポート。オープンウェイトにより、ユースケースに合わせた完全なカスタマイズが可能です。
公式ウェイトはHugging Face、Kaggle、Google AI Studioで入手可能です。上記のクイックスタートセクションをご覧ください。