Gemma 4
El Modelo Abierto Más Potente por Parámetro
Diseñado para razonamiento avanzado y flujos de trabajo agénticos. La innovadora familia de modelos de código abierto de Google DeepMind — licencia Apache 2.0, rendimiento de vanguardia, ejecutable en tu propio hardware.
¿Por qué Gemma 4?
Construido con la misma investigación y tecnología usada para crear Gemini
Multimodalidad Nativa
Procesa texto, imágenes, audio y video en un solo modelo. Comprende entradas multimodales complejas con rendimiento de última generación.
Razonamiento Avanzado
Rendimiento excepcional en tareas de razonamiento complejo. Resuelve problemas matemáticos, analiza código y maneja desafíos lógicos de múltiples pasos.
Capacidades Agénticas
Construido para flujos de trabajo autónomos. Llamadas a funciones, uso de herramientas e interacciones multi-turno listas para usar.
Contexto Extendido
Soporte para ventanas de contexto ultra largas de hasta 128K tokens. Perfecto para análisis de documentos y conversaciones complejas.
Despliegue Eficiente
Múltiples tamaños desde 4B hasta 27B parámetros. Ejecuta localmente en hardware de consumo o escala en la nube.
Abierto y Gratuito
Licencia Apache 2.0. Uso comercial completo permitido. Sin condiciones.
Variantes del Modelo
Elige el tamaño adecuado para tus necesidades
| Modelo | Parámetros | Contexto | Modalidad | Mejor Para |
|---|---|---|---|---|
| Gemma 4 4B | 4B | 32K | Texto | Dispositivos edge, apps móviles |
| Gemma 4 12B | 12B | 128K | Texto + Visión | Propósito general, equilibrado |
| Gemma 4 27B Flagship | 27B | 128K | Texto + Visión + Audio | Razonamiento complejo, producción |
Rendimiento
Comparación con modelos abiertos líderes
Mayor es mejor. Resultados de benchmarks oficiales.
Comienza en Minutos
Múltiples formas de ejecutar Gemma 4
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"google/gemma-4-27b-it",
device_map="auto",
torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-27b-it")
messages = [
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0])) # Install and run with Ollama
ollama run gemma4:27b
# Or pull first, then run
ollama pull gemma4:27b
ollama run gemma4:27b
# Use with API
curl http://localhost:11434/api/generate -d '{
"model": "gemma4:27b",
"prompt": "Explain quantum computing in simple terms."
}' # No installation needed!
# 1. Go to https://aistudio.google.com/
# 2. Select Gemma 4 model
# 3. Start prompting
# Or use the API:
import google.generativeai as genai
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemma-4-27b-it")
response = model.generate_content(
"Explain quantum computing in simple terms."
)
print(response.text) Casos de Uso
¿Qué puedes construir con Gemma 4?
Asistentes IA
Construye chatbots inteligentes y asistentes virtuales con capacidades de razonamiento avanzado.
Generación de Código
Genera, analiza y depura código en múltiples lenguajes de programación.
Análisis de Documentos
Extrae insights de documentos largos, informes y PDFs de múltiples páginas.
Tareas de Visión
Comprensión de imágenes, Q&A visual, análisis de gráficos y OCR.
Investigación y Educación
Investigación académica, sistemas de tutoría y generación de contenido educativo.
Aplicaciones Empresariales
Soporte al cliente, moderación de contenido y automatización de flujos de trabajo.
Preguntas Frecuentes
¡Sí! Gemma 4 se publica bajo la licencia Apache 2.0, permitiendo uso comercial completo sin restricciones.
Gemma 4 4B puede ejecutarse en GPUs de consumo con 8GB+ VRAM. El modelo 12B necesita 16GB+, y 27B requiere 32GB+ o configuraciones multi-GPU. Las versiones cuantizadas reducen significativamente los requisitos.
Gemma 4 27B logra un rendimiento competitivo con modelos propietarios en muchos benchmarks mientras es completamente de código abierto y ejecutable localmente.
Absolutamente. Gemma 4 soporta LoRA, QLoRA y fine-tuning completo. Los pesos abiertos permiten personalización completa para tu caso de uso.
Los pesos oficiales están disponibles en Hugging Face, Kaggle y Google AI Studio. Consulta la sección de Inicio Rápido arriba.
¿Listo para Construir con Gemma 4?
Únete a millones de desarrolladores usando Gemma