2026년 4월 2일 출시

Gemma 4

파라미터당 가장 강력한 오픈 모델

고급 추론 및 에이전트 워크플로우를 위해 설계. Google DeepMind의 혁신적인 오픈소스 모델 제품군 — Apache 2.0 라이선스, 최첨단 성능, 자체 하드웨어에서 실행 가능.

4억+
Gemma 1 이후 다운로드 수
10만+
커뮤니티 변형
#3
Arena AI 오픈 모델 순위

왜 Gemma 4인가?

Gemini를 만든 동일한 연구와 기술로 구축

🎯

네이티브 멀티모달

단일 모델로 텍스트, 이미지, 오디오, 비디오 처리. 최첨단 성능으로 복잡한 멀티모달 입력 이해.

🧠

고급 추론

복잡한 추론 작업에서 탁월한 성능. 수학 문제 해결, 코드 분석, 다단계 논리적 과제 처리.

🤖

에이전트 기능

자율 워크플로우를 위해 구축. 함수 호출, 도구 사용, 다중 턴 상호작용 즉시 사용 가능.

📚

확장된 컨텍스트

최대 128K 토큰의 초장문 컨텍스트 윈도우 지원. 문서 분석 및 복잡한 대화에 완벽.

효율적인 배포

4B에서 27B 파라미터까지 다양한 크기. 소비자용 하드웨어에서 로컬 실행 또는 클라우드에서 확장.

🔓

오픈 & 무료

Apache 2.0 라이선스. 완전한 상업적 사용 허용. 조건 없음.

모델 변형

필요에 맞는 크기 선택

모델 파라미터 컨텍스트 모달리티 최적 용도
Gemma 4 4B 40억 32K 텍스트 엣지 디바이스, 모바일 앱
Gemma 4 12B 120억 128K 텍스트 + 비전 범용, 균형
Gemma 4 27B Flagship 270억 128K 텍스트 + 비전 + 오디오 복잡한 추론, 프로덕션

성능

주요 오픈 모델과 비교

MMLU Gemma 4 27B: 86.2%
HumanEval Gemma 4 27B: 78.5%
MATH Gemma 4 27B: 72.3%
GSM8K Gemma 4 27B: 91.8%

점수가 높을수록 좋음. 공식 벤치마크 결과.

몇 분 만에 시작

Gemma 4를 실행하는 여러 방법

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    "google/gemma-4-27b-it",
    device_map="auto",
    torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-27b-it")

messages = [
    {"role": "user", "content": "Explain quantum computing in simple terms."}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0]))
# Install and run with Ollama
ollama run gemma4:27b

# Or pull first, then run
ollama pull gemma4:27b
ollama run gemma4:27b

# Use with API
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:27b",
  "prompt": "Explain quantum computing in simple terms."
}'
# No installation needed!
# 1. Go to https://aistudio.google.com/
# 2. Select Gemma 4 model
# 3. Start prompting

# Or use the API:
import google.generativeai as genai

genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemma-4-27b-it")

response = model.generate_content(
    "Explain quantum computing in simple terms."
)
print(response.text)

사용 사례

Gemma 4로 무엇을 만들 수 있나요?

AI 어시스턴트

고급 추론 기능을 갖춘 지능형 챗봇 및 가상 어시스턴트 구축.

코드 생성

여러 프로그래밍 언어에서 코드 생성, 분석 및 디버그.

문서 분석

긴 문서, 보고서 및 다중 페이지 PDF에서 인사이트 추출.

비전 작업

이미지 이해, 비주얼 Q&A, 차트 분석 및 OCR.

연구 및 교육

학술 연구, 튜터링 시스템 및 교육 콘텐츠 생성.

엔터프라이즈 애플리케이션

고객 지원, 콘텐츠 모더레이션 및 워크플로우 자동화.

자주 묻는 질문

네! Gemma 4는 Apache 2.0 라이선스로 출시되어 제한 없이 완전한 상업적 사용이 가능합니다.

Gemma 4 4B는 8GB 이상 VRAM의 소비자용 GPU에서 실행 가능. 12B 모델은 16GB 이상, 27B는 32GB 이상 또는 다중 GPU 설정 필요. 양자화 버전은 요구 사항을 크게 줄여줍니다.

Gemma 4 27B는 많은 벤치마크에서 독점 모델과 경쟁력 있는 성능을 달성하면서 완전히 오픈소스이며 로컬에서 실행 가능합니다.

물론입니다. Gemma 4는 LoRA, QLoRA, 전체 파인튜닝을 지원합니다. 오픈 웨이트로 사용 사례에 맞게 완전히 커스터마이징할 수 있습니다.

공식 웨이트는 Hugging Face, Kaggle, Google AI Studio에서 사용할 수 있습니다. 위의 빠른 시작 섹션을 참조하세요.

Gemma 4로 빌드할 준비가 되셨나요?

Gemma를 사용하는 수백만 개발자와 함께하세요