Lanzado el 2 de abril de 2026

Gemma 4

El Modelo Abierto Más Potente por Parámetro

Diseñado para razonamiento avanzado y flujos de trabajo agénticos. La innovadora familia de modelos de código abierto de Google DeepMind — licencia Apache 2.0, rendimiento de vanguardia, ejecutable en tu propio hardware.

400M+
Descargas desde Gemma 1
100K+
Variantes de la Comunidad
#3
Ranking Arena AI Modelos Abiertos

¿Por qué Gemma 4?

Construido con la misma investigación y tecnología usada para crear Gemini

🎯

Multimodalidad Nativa

Procesa texto, imágenes, audio y video en un solo modelo. Comprende entradas multimodales complejas con rendimiento de última generación.

🧠

Razonamiento Avanzado

Rendimiento excepcional en tareas de razonamiento complejo. Resuelve problemas matemáticos, analiza código y maneja desafíos lógicos de múltiples pasos.

🤖

Capacidades Agénticas

Construido para flujos de trabajo autónomos. Llamadas a funciones, uso de herramientas e interacciones multi-turno listas para usar.

📚

Contexto Extendido

Soporte para ventanas de contexto ultra largas de hasta 128K tokens. Perfecto para análisis de documentos y conversaciones complejas.

Despliegue Eficiente

Múltiples tamaños desde 4B hasta 27B parámetros. Ejecuta localmente en hardware de consumo o escala en la nube.

🔓

Abierto y Gratuito

Licencia Apache 2.0. Uso comercial completo permitido. Sin condiciones.

Variantes del Modelo

Elige el tamaño adecuado para tus necesidades

Modelo Parámetros Contexto Modalidad Mejor Para
Gemma 4 4B 4B 32K Texto Dispositivos edge, apps móviles
Gemma 4 12B 12B 128K Texto + Visión Propósito general, equilibrado
Gemma 4 27B Flagship 27B 128K Texto + Visión + Audio Razonamiento complejo, producción

Rendimiento

Comparación con modelos abiertos líderes

MMLU Gemma 4 27B: 86.2%
HumanEval Gemma 4 27B: 78.5%
MATH Gemma 4 27B: 72.3%
GSM8K Gemma 4 27B: 91.8%

Mayor es mejor. Resultados de benchmarks oficiales.

Comienza en Minutos

Múltiples formas de ejecutar Gemma 4

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    "google/gemma-4-27b-it",
    device_map="auto",
    torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-27b-it")

messages = [
    {"role": "user", "content": "Explain quantum computing in simple terms."}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0]))
# Install and run with Ollama
ollama run gemma4:27b

# Or pull first, then run
ollama pull gemma4:27b
ollama run gemma4:27b

# Use with API
curl http://localhost:11434/api/generate -d '{
  "model": "gemma4:27b",
  "prompt": "Explain quantum computing in simple terms."
}'
# No installation needed!
# 1. Go to https://aistudio.google.com/
# 2. Select Gemma 4 model
# 3. Start prompting

# Or use the API:
import google.generativeai as genai

genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemma-4-27b-it")

response = model.generate_content(
    "Explain quantum computing in simple terms."
)
print(response.text)

Casos de Uso

¿Qué puedes construir con Gemma 4?

Asistentes IA

Construye chatbots inteligentes y asistentes virtuales con capacidades de razonamiento avanzado.

Generación de Código

Genera, analiza y depura código en múltiples lenguajes de programación.

Análisis de Documentos

Extrae insights de documentos largos, informes y PDFs de múltiples páginas.

Tareas de Visión

Comprensión de imágenes, Q&A visual, análisis de gráficos y OCR.

Investigación y Educación

Investigación académica, sistemas de tutoría y generación de contenido educativo.

Aplicaciones Empresariales

Soporte al cliente, moderación de contenido y automatización de flujos de trabajo.

Preguntas Frecuentes

¡Sí! Gemma 4 se publica bajo la licencia Apache 2.0, permitiendo uso comercial completo sin restricciones.

Gemma 4 4B puede ejecutarse en GPUs de consumo con 8GB+ VRAM. El modelo 12B necesita 16GB+, y 27B requiere 32GB+ o configuraciones multi-GPU. Las versiones cuantizadas reducen significativamente los requisitos.

Gemma 4 27B logra un rendimiento competitivo con modelos propietarios en muchos benchmarks mientras es completamente de código abierto y ejecutable localmente.

Absolutamente. Gemma 4 soporta LoRA, QLoRA y fine-tuning completo. Los pesos abiertos permiten personalización completa para tu caso de uso.

Los pesos oficiales están disponibles en Hugging Face, Kaggle y Google AI Studio. Consulta la sección de Inicio Rápido arriba.

¿Listo para Construir con Gemma 4?

Únete a millones de desarrolladores usando Gemma