Gemma 4 ガイド
llama.cpp は Gemma 4 に対応している? GGUF の状況、修正、動作確認済みモデル

llama.cpp の Gemma 4 サポートをお探しの方へ、簡潔な答えは 「はい、対応しています」 です。
2026年4月7日現在、ggml-org の下で以下のモデルの公開 GGUF ページが用意されています。
- Gemma 4 E2B
- Gemma 4 E4B
- Gemma 4 26B A4B
- Gemma 4 31B
また、これらの GGUF ページでは、以下のようなコマンドでの実行が明示的に推奨されています。
llama-server -hf ggml-org/gemma-4-31B-it-GGUF
これだけで、llama.cpp がユーザーレベルで実用的に Gemma 4 をサポートしていると言えます。
llama.cpp は Gemma 4 をサポートしていますか?(簡単な回答)
はい。現在の公式な状況は以下の通りです。
- Google の Gemma ドキュメントに、統合パスとして llama.cpp が記載されています。
- ggml-org が Gemma 4 の GGUF ビルドを公開しています。
- GGUF モデルカードで llama.cpp ツールの使用が明示的に案内されています。
したがって、互換性に関する疑問に曖昧な点はありません。
llama.cpp で動作する Gemma 4 モデルはどれですか?
現在、以下のモデルの公開 GGUF ページが存在します。
| モデル | 公開 GGUF パス |
|---|---|
| Gemma 4 E2B | ggml-org / Gemma 4 E2B GGUF |
| Gemma 4 E4B | ggml-org / Gemma 4 E4B GGUF |
| Gemma 4 26B A4B | ggml-org / Gemma 4 26B A4B GGUF |
| Gemma 4 31B | ggml-org / Gemma 4 31B GGUF |
つまり、llama.cpp の Gemma 4 サポートは特定のサイズに限定されず、ファミリー全体がカバーされています。
ここでの「サポート済み」の具体的な意味
以下の点が明確にカバーされています。
Gemma 4 に対する llama.cpp のサポート範囲:
- GGUF のロード
- ローカルでのテキスト推論
llama-serverを介したローカルサーバーワークフロー- コマンドラインでの推論と自動化
これらは、ほとんどのユーザーが必要とするコア機能です。
最新のマルチモーダル機能やリリース直後の詳細については、古いバイナリが新しいアーキテクチャを完全に理解していると期待せず、最新の llama.cpp ビルドを使用するのが最も安全です。
なぜ最新ビルドが重要なのか
Gemma 4 は新しいモデルファミリーの詳細を伴ってリリースされました。llama.cpp プロジェクトはリリース直後に Gemma 4 関連の修正をマージしています。
- 2026年4月2日: Gemma 4 パーサーの修正
- 2026年4月3日: Gemma 4 トークナイザーの修正
したがって、llama.cpp の Gemma 4 サポートは本物ですが、常に過去のビルドではなく、最新のビルドを使用することを推奨します。
llama.cpp で実行すべき Gemma 4 モデルの選び方
実用的なモデル選択のルールは以下の通りです。
- E2B: 最小のフットプリントが必要な場合
- E4B: 小さくても強力なモデルが必要な場合
- 26B A4B: ローカル実行における「スイートスポット(バランス重視)」
- 31B: 最高品質を求め、メモリに余裕がある場合
llama.cpp で強力なローカルモデルを1つだけ動かしたい場合、最もおすすめなのは依然として 26B A4B です。
llama.cpp を選ぶべきケース
以下のような目的がある場合は、Gemma 4 の実行に llama.cpp を選んでください。
- CLI による制御
- ローカルの OpenAI 互換サーバーの構築
- CPU 優先またはカスタムランタイムのワークフロー
- 量子化とデプロイの精密な制御
GUI を主に利用したい場合は、代わりに LM Studio を選択してください。 トレーニングや GGUF エクスポートのワークフローが主な目的であれば、Unsloth を選択してください。
よくある質問 (FAQ)
現在、llama.cpp は Gemma 4 をサポートしていますか?
はい。Gemma 4 ファミリー全体の公開 GGUF ビルドが存在し、モデルカードには直接 llama.cpp の使い方が記載されています。
llama.cpp で動作する Gemma 4 モデルはどれですか?
E2B、E4B、26B A4B、31B すべてに公開 GGUF パスがあります。
古い llama.cpp ビルドを使っても大丈夫ですか?
2026年4月初旬のリリース直後に Gemma 4 関連の修正が入ったため、最新のビルドを使用するのが安全です。
Gemma 4 には llama.cpp と LM Studio のどちらが良いですか?
制御と自動化を重視するなら llama.cpp、最も簡単な GUI 優先のワークフローを求めるなら LM Studio を使用してください。
公式リファレンス
- Google Gemma docs: integrations and local paths
- ggml-org Gemma 4 31B GGUF
- ggml-org Gemma 4 26B A4B GGUF
- ggml-org Gemma 4 E4B GGUF
- ggml-org Gemma 4 E2B GGUF
- llama.cpp parser fix for Gemma 4
- llama.cpp tokenizer fix for Gemma 4
関連記事
関連記事
Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

llama.cpp で Gemma 4 を実行する方法: GGUF 設定、ハードウェア、量子化ガイド
Gemma 4 を llama.cpp でローカル実行するために必要なすべて:ハードウェア対応表、コピー&ペーストで使えるビルドコマンド、量子化ガイド、マルチモーダルセットアップ。

LM Studio は Gemma 4 に対応している? 互換性、モデル一覧、要件
LM Studio が Gemma 4 をサポートしているかという問いに対し、サポート対象モデルの一覧、最小メモリ要件、そして実際のセットアップにおける期待値を明らかにします。

Unsloth は Gemma 4 に対応している? ローカル実行とファインチューニングの状況
Unsloth が Gemma 4 をサポートしているかという疑問に対し、ローカル実行、ファインチューニングのサポート、および重要なモデル固有の注意点を詳しく解説します。
次に何を読めばいいか迷っていますか?
ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。
