Guias do Gemma 4
Comparação de Modelos Gemma 4: 31B vs 26B A4B vs E4B vs E2B

O Google lançou o Gemma 4 em 3 de abril de 2026 — mas não é apenas um modelo. São quatro modelos separados compartilhando um nome de família, cada um fazendo diferentes concessões em termos de memória, velocidade, suporte a modalidades e qualidade de raciocínio. Escolher o errado significa baixar gigabytes que você não consegue rodar, ou rodar algo com pouca potência quando seu hardware poderia aguentar mais.
Este guia decifra o sistema de nomenclatura, expõe as diferenças reais e oferece um caminho de decisão claro antes de você baixar um único arquivo de pesos.
O que os Nomes Realmente Significam
A convenção de nomenclatura do Gemma 4 confunde quase todo mundo na primeira vez. Aqui está o que cada prefixo e sufixo realmente codifica.
E2B e E4B — Parâmetros "Efetivos", construídos para dispositivos de borda (edge)
O "E" significa parâmetros efetivos (effective parameters). O E2B possui 2,3 bilhões de parâmetros efetivos durante a inferência, mas seu número total de parâmetros é de 5,1 bilhões. O E4B funciona da mesma maneira. Essa diferença existe porque o Google utiliza uma técnica chamada Per-Layer Embeddings (PLE): cada camada do decodificador carrega sua própria pequena tabela de incorporação (embedding) que alimenta um sinal residual na computação dessa camada. Essas tabelas são grandes no disco, mas baratas para computar, e é por isso que o modelo se comporta como um 2B em tempo de execução, embora tecnicamente pese mais. O resultado é um modelo dimensionado para telefones e laptops que carrega mais profundidade representacional do que o número de parâmetros sugere.
26B A4B — Parâmetros "Ativos", arquitetura MoE
O "A" significa parâmetros ativos (active parameters). O 26B A4B é um modelo Mixture-of-Experts (MoE) com 25,2 bilhões de parâmetros totais, mas apenas 3,8 bilhões ativos durante qualquer etapa individual de inferência. O Google construiu este modelo com 128 pequenos especialistas (experts), ativando 8 mais um especialista compartilhado sempre ativo por token. O resultado prático: ele roda quase tão rápido quanto um modelo denso de 4B, mas produz uma qualidade muito mais próxima do 31B. O "26B" informa os requisitos de armazenamento; o "A4B" informa o custo computacional.
31B — Denso, sem truques
Cada parâmetro é acionado em cada passagem direta. Você paga a conta computacional completa, mas obtém o comportamento mais simples, o teto de qualidade mais alto da família e a base mais limpa para ajuste fino (fine-tuning).
Os Quatro Modelos em um Relance
| E2B | E4B | 26B A4B | 31B | |
|---|---|---|---|---|
| Arquitetura | Denso (Edge) | Denso (Edge) | MoE | Denso |
| Params Efetivos / Ativos | ~2.3B | ~4B | ~3.8B ativos | 30.7B |
| Params Totais | 5.1B | ~9B | 25.2B | 30.7B |
| Janela de contexto | 128K | 128K | 256K | 256K |
| Entrada de Áudio | ✅ | ✅ | ❌ | ❌ |
| Entrada de Imagem / Vídeo | ✅ | ✅ | ✅ | ✅ |
| Hardware alvo | Celular / IoT | Laptop | GPU de Consumo | H100 / GPU High-end |
| Memória (quant. 4-bit) | ~5 GB | ~8 GB | ~18 GB | ~20 GB |
| Memória (8-bit / 16-bit) | ~15 GB | — | ~28 GB | ~34 GB |
| LMArena Elo (texto) | — | — | 1441 | 1452 |
| Ranking de modelo aberto | — | — | #6 | #3 |
Os valores de memória são valores de planejamento aproximados do guia de implantação da Unsloth. O uso real varia com o comprimento do contexto, método de quantização e sobrecarga do sistema.
Números de Benchmark
Todas as pontuações abaixo são do cartão de modelo oficial do Google Gemma 4 e de variantes ajustadas para instruções, a menos que indicado. Os benchmarks utilizam AIME 2026, LiveCodeBench v6 e MMLU Pro — versões mais recentes do que os testes usados para o Gemma 3, portanto, comparações geracionais diretas devem ser lidas como tendenciais.
31B Denso
| Benchmark | Pontuação |
|---|---|
| AIME 2026 (matemática) | 89.2% |
| LiveCodeBench v6 (codificação) | 80.0% |
| GPQA Diamond (raciocínio científico) | 84.3% |
| MMLU Pro (conhecimento) | 85.2% |
| MMMU Pro (visão) | 76.9% |
| MATH-Vision | 85.6% |
| Codeforces ELO | 2.150 |
| Recuperação multi-agulha (contexto longo) | 66.4% |
Para contexto: o Gemma 3 27B pontuou 20,8% no AIME e 29,1% no LiveCodeBench. A melhoria é geracional, não incremental.
26B A4B (MoE)
| Benchmark | Pontuação |
|---|---|
| AIME 2026 | 88.3% |
| LiveCodeBench v6 | 77.1% |
| GPQA Diamond | 82.3% |
| MMLU Pro | 82.6% |
O 26B A4B atinge cerca de 97% da qualidade do modelo denso 31B, ativando apenas 3,8B de parâmetros por token — cerca de 8 vezes menos computação por etapa de inferência. No ranking da LMArena, ele marca 1441 Elo contra 1452 para o 31B, uma diferença que será invisível na maioria das tarefas do mundo real.
E4B
| Benchmark | Pontuação |
|---|---|
| AIME 2026 | 42.5% |
| LiveCodeBench v6 | 52.0% |
| MMLU Pro | 69.4% |
| MMMU Pro (visão) | 52.6% |
Forte para um modelo que roda em uma GPU T4 ou MacBook Air. A lacuna de raciocínio em relação aos modelos de estação de trabalho é real, mas o E4B lida com OCR, reconhecimento de imagem (grounding) e assistência de codificação em um nível que justifica sua posição em uma implantação de borda (edge).
E2B
| Benchmark | Pontuação |
|---|---|
| AIME 2026 | 37.5% |
| LiveCodeBench v6 | 44.0% |
| MMLU Pro | 60.0% |
| MMMU Pro (visão) | 44.2% |
E2B é a base da família. Funciona em smartphones e hardware da classe Raspberry Pi. Os próprios testes do Google mostram o Gemma 4 E2B rodando em um Raspberry Pi 5 via LiteRT-LM a cerca de 7,6 tokens por segundo de velocidade de decodificação — lento, mas funcional para fluxos de trabalho de agentes de borda.
As Principais Diferenças que Realmente Importam
Áudio não é um recurso de toda a família
Apenas o E2B e o E4B suportam entrada de áudio — reconhecimento de fala e tradução de áudio para texto. O áudio é limitado a 30 segundos por clipe. O 26B A4B e o 31B não suportam áudio de forma alguma. Se o seu caso de uso exigir entrada de fala, a escolha já está feita antes mesmo de você olhar para qualquer outra coisa.
Janela de contexto divide a família em duas
E2B e E4B chegam ao limite de 128K tokens. O 26B A4B e o 31B atingem 256K. Isso importa mais do que o número bruto sugere. A janela de contexto de 128K do Gemma 3 era majoritariamente teórica — a confiabilidade da recuperação falhava em longos alcances. A janela de contexto de 256K do Gemma 4 é funcional: o 31B passou de 13,5% para 66,4% nos testes de recuperação multi-agulha (needle-in-a-haystack), o que significa que o modelo pode realmente encontrar e raciocinar sobre informações enterradas profundamente em um documento longo, e não apenas aceitá-las.
MoE vs Denso é uma troca de velocidade por ajuste fino
O 26B A4B roda aproximadamente na velocidade de um modelo denso de 4B durante a inferência porque apenas 3,8B de parâmetros são ativados por token. Para fluxos de trabalho de agentes onde você está gerando centenas de tokens em muitas chamadas de ferramentas, essa vantagem de velocidade se acumula significativamente. O 31B Denso é mais lento, mas oferece um comportamento mais previsível e é o candidato mais forte para ajuste fino — cada camada é acionada todas as vezes, o que simplifica o fluxo do gradiente durante o treinamento.
O suporte a vídeo tem limites rígidos
Todos os quatro modelos podem processar vídeo, mas o vídeo é tratado como uma sequência de quadros a um quadro por segundo, limitado a 60 segundos. Isso é útil para clipes curtos, gravações de interface de usuário ou para resumir uma pequena demonstração — não para análise de vídeo em tempo real ou conteúdo de longa duração.
O corte de conhecimento é Janeiro de 2025
Os dados de pré-treinamento do Gemma 4 têm como data de corte janeiro de 2025. Uma janela de contexto de 256K não altera isso. Para domínios que mudaram desde então, você precisa de recuperação aumentada por geração (RAG) ou acesso a ferramentas, em vez de confiar no conhecimento interno do modelo.
Requisitos de Hardware
Estes são valores aproximados para inferência quantizada. "Memória total" significa RAM + VRAM combinadas para sistemas de memória unificada (Apple Silicon, configurações integradas) ou VRAM disponível para configurações de GPU dedicada.
| Modelo | Quant. 4-bit | Quant. 8-bit | Não quantizado (BF16) |
|---|---|---|---|
| E2B | ~5 GB | ~15 GB | — |
| E4B | ~8 GB | — | — |
| 26B A4B | ~18 GB | ~28 GB | — |
| 31B | ~20 GB | ~34 GB | ~80 GB (única H100) |
Tradução prática:
- Smartphone ou Raspberry Pi — E2B via LiteRT-LM ou AI Edge Gallery
- MacBook Air (8 GB memória unificada) — E4B em 4-bit roda confortavelmente
- Laptop ou desktop com 16 GB RAM — 26B A4B em 4-bit é o alvo certo
- RTX 3090 / RTX 4090 (24 GB VRAM) — 26B A4B roda totalmente com contexto de 256K; 31B em 4-bit é viável
- NVIDIA H100 (80 GB) — 31B em precisão total BF16, sem necessidade de quantização
- NVIDIA DGX Spark (128 GB unificada) — 31B em BF16 com margem de folga
Algo que vale a pena destacar: os 25,2B de parâmetros totais do 26B A4B ainda precisam residir na memória, mesmo que apenas 3,8B sejam ativados por etapa. Você paga pelo armazenamento uma vez ao carregar; você paga por 3,8B de computação em cada token. Planeje o hardware considerando o primeiro ponto.
Qual Modelo Você Deve Rodar?
Escolha o E2B se: você estiver construindo aplicativos móveis integrados ao dispositivo, agentes de IoT ou qualquer coisa que precise rodar em um smartphone sem conexão de rede. Também é a escolha certa se você precisar de entrada de áudio e tiver memória severamente limitada.
Escolha o E4B se: você deseja suporte para entrada de áudio com um raciocínio visivelmente melhor do que o E2B, e possui um laptop ou GPU intermediária de 8 a 16 GB. Esta é a escolha padrão de borda (edge) para a maioria dos desenvolvedores que não estão restritos à memória mínima absoluta.
Escolha o 26B A4B se: você tem uma GPU de consumo com 16 a 24 GB de memória e deseja uma qualidade próxima à do 31B com inferência mais rápida. Este é o ponto ideal para fluxos de trabalho de agentes locais, assistentes de codificação e processamento de documentos onde a velocidade importa. É também a escolha certa para qualquer implantação onde a latência afeta a experiência do usuário.
Escolha o 31B se: você deseja a saída de maior qualidade da família, planeja fazer ajuste fino ou está operando em hardware que pode lidar com isso confortavelmente. Não escolha o 31B apenas porque "mais parâmetros" soa melhor — o 26B A4B é tão próximo em qualidade que muitos usuários não notarão a diferença na prática.
Onde Acessar o Gemma 4
- Google AI Studio — Hospeda 31B e 26B A4B, sem necessidade de configuração local
- Google AI Edge Gallery — Hospeda E4B e E2B, otimizado para testes móveis
- Hugging Face — Todos os quatro modelos como
google/gemma-4-31B-it,google/gemma-4-26B-A4B-it,google/gemma-4-E4B-it,google/gemma-4-E2B-it - Ollama —
ollama run gemma4:e4b,gemma4:26b, etc. - LM Studio — Configuração local baseada em GUI para 26B e 31B
- llama.cpp — Inferência multiplataforma CPU/GPU
- MLX — Inferência otimizada para Apple Silicon
Todos os pesos são licenciados sob Apache 2.0 — sem limites de MAU, sem restrições de uso, uso comercial permitido sem termos adicionais.
Perguntas Frequentes
O que significa "A4B" no Gemma 4 26B A4B? O "A" significa parâmetros ativos (active parameters). O 26B A4B é um modelo Mixture-of-Experts com 25,2 bilhões de parâmetros totais, mas apenas 3,8 bilhões ativos por etapa de inferência. Ele funciona como um modelo 4B em termos de computação, entregando qualidade próxima ao 26B total.
O que significa "E2B" e "E4B"? O "E" significa parâmetros efetivos (effective parameters). Esses modelos usam Per-Layer Embeddings (PLE) — uma técnica onde cada camada do decodificador tem sua própria pequena tabela de incorporação. Os modelos têm mais parâmetros totais do que o seu número "E" sugere, mas sua pegada computacional em execução corresponde à contagem de parâmetros efetivos. O E2B comporta-se como um modelo 2B em execução.
O Gemma 4 suporta áudio? Apenas no E2B e E4B. Ambos suportam entrada de áudio para reconhecimento de fala e tradução de áudio para texto, até 30 segundos por clipe. O 26B A4B e o 31B não suportam entrada de áudio.
Quanta VRAM o Gemma 4 31B precisa? Cerca de 20 GB para inferência quantizada de 4 bits, 34 GB para 8 bits e uma única H100 de 80 GB para BF16 não quantizado. Para a maioria dos usuários locais, 4 bits em uma RTX 3090 ou RTX 4090 (24 GB de VRAM) é o caminho prático.
Qual é a diferença entre o E2B e o E4B? Ambos são modelos de borda com suporte a áudio e uma janela de contexto de 128K. O E4B tem mais capacidade: pontua 69,4% vs 60,0% no MMLU Pro, 52,0% vs 44,0% no LiveCodeBench e 52,6% vs 44,2% no MMMU Pro (visão). O E4B requer cerca de 8 GB em 4 bits contra 5 GB para o E2B. Se o seu hardware suportar o E4B, ele é a melhor escolha padrão.
Posso rodar o Gemma 4 26B A4B em um laptop com 16 GB de RAM? Sim, em quantização de 4 bits com aproximadamente 18 GB de memória total necessária. Em um sistema com 16 GB de RAM e uma GPU dedicada compartilhando memória, você pode estar no limite. No Apple Silicon com 24 GB de memória unificada, roda confortavelmente.
O Gemma 4 é melhor que o Gemma 3? Significativamente. As pontuações de matemática do AIME 2026 subiram de 20,8% (Gemma 3 27B) para 89,2% (Gemma 4 31B). O LiveCodeBench subiu de 29,1% para 80,0%. A recuperação multi-agulha de contexto longo subiu de 13,5% para 66,4%. Estas são melhorias geracionais, não incrementais.
Guias relacionados
Guias relacionados
Continue no cluster do Gemma 4 com o proximo guia que combina com a decisao que voce esta tomando agora.

Gemma 4 26B vs 31B: Qual Modelo Você Deve Escolher?
Uma comparação prática do Gemma 4 26B vs 31B para quem está decidindo entre o ponto ideal do MoE e o modelo denso mais forte da família.

Gemma 4 E2B vs E4B: Qual Modelo Pequeno Você Deve Escolher?
Um guia prático sobre o Gemma 4 E2B vs E4B para quem está escolhendo entre os dois modelos pequenos, com lacunas reais de benchmark e orientações de memória.

Requisitos de VRAM do Gemma 4 26B A4B: Q4, Q8, F16 e Placas de 24 GB
Um guia focado nos requisitos de VRAM do Gemma 4 26B A4B com tamanhos exatos de GGUF, faixas de planejamento e por que o 26B é o ponto ideal para uso local.
Ainda decidindo o que ler depois?
Volte para o hub de guias para navegar por comparacoes de modelos, tutoriais de configuracao e paginas de planejamento de hardware.
