Gemma 4 ガイド

llama.cpp は Gemma 4 に対応している? GGUF の状況、修正、動作確認済みモデル

約 6 分
gemma 4llama.cppggufローカルLLM互換性
llama.cpp は Gemma 4 に対応している? GGUF の状況、修正、動作確認済みモデル

llama.cpp の Gemma 4 サポートをお探しの方へ、簡潔な答えは 「はい、対応しています」 です。

2026年4月7日現在、ggml-org の下で以下のモデルの公開 GGUF ページが用意されています。

  • Gemma 4 E2B
  • Gemma 4 E4B
  • Gemma 4 26B A4B
  • Gemma 4 31B

また、これらの GGUF ページでは、以下のようなコマンドでの実行が明示的に推奨されています。

llama-server -hf ggml-org/gemma-4-31B-it-GGUF

これだけで、llama.cpp がユーザーレベルで実用的に Gemma 4 をサポートしていると言えます。


llama.cpp は Gemma 4 をサポートしていますか?(簡単な回答)

はい。現在の公式な状況は以下の通りです。

  • Google の Gemma ドキュメントに、統合パスとして llama.cpp が記載されています。
  • ggml-org が Gemma 4 の GGUF ビルドを公開しています。
  • GGUF モデルカードで llama.cpp ツールの使用が明示的に案内されています。

したがって、互換性に関する疑問に曖昧な点はありません。


llama.cpp で動作する Gemma 4 モデルはどれですか?

現在、以下のモデルの公開 GGUF ページが存在します。

モデル 公開 GGUF パス
Gemma 4 E2B ggml-org / Gemma 4 E2B GGUF
Gemma 4 E4B ggml-org / Gemma 4 E4B GGUF
Gemma 4 26B A4B ggml-org / Gemma 4 26B A4B GGUF
Gemma 4 31B ggml-org / Gemma 4 31B GGUF

つまり、llama.cpp の Gemma 4 サポートは特定のサイズに限定されず、ファミリー全体がカバーされています。


ここでの「サポート済み」の具体的な意味

以下の点が明確にカバーされています。

Gemma 4 に対する llama.cpp のサポート範囲:

  • GGUF のロード
  • ローカルでのテキスト推論
  • llama-server を介したローカルサーバーワークフロー
  • コマンドラインでの推論と自動化

これらは、ほとんどのユーザーが必要とするコア機能です。

最新のマルチモーダル機能やリリース直後の詳細については、古いバイナリが新しいアーキテクチャを完全に理解していると期待せず、最新の llama.cpp ビルドを使用するのが最も安全です。


なぜ最新ビルドが重要なのか

Gemma 4 は新しいモデルファミリーの詳細を伴ってリリースされました。llama.cpp プロジェクトはリリース直後に Gemma 4 関連の修正をマージしています。

  • 2026年4月2日: Gemma 4 パーサーの修正
  • 2026年4月3日: Gemma 4 トークナイザーの修正

したがって、llama.cpp の Gemma 4 サポートは本物ですが、常に過去のビルドではなく、最新のビルドを使用することを推奨します。


llama.cpp で実行すべき Gemma 4 モデルの選び方

実用的なモデル選択のルールは以下の通りです。

  • E2B: 最小のフットプリントが必要な場合
  • E4B: 小さくても強力なモデルが必要な場合
  • 26B A4B: ローカル実行における「スイートスポット(バランス重視)」
  • 31B: 最高品質を求め、メモリに余裕がある場合

llama.cpp で強力なローカルモデルを1つだけ動かしたい場合、最もおすすめなのは依然として 26B A4B です。


llama.cpp を選ぶべきケース

以下のような目的がある場合は、Gemma 4 の実行に llama.cpp を選んでください。

  • CLI による制御
  • ローカルの OpenAI 互換サーバーの構築
  • CPU 優先またはカスタムランタイムのワークフロー
  • 量子化とデプロイの精密な制御

GUI を主に利用したい場合は、代わりに LM Studio を選択してください。 トレーニングや GGUF エクスポートのワークフローが主な目的であれば、Unsloth を選択してください。


よくある質問 (FAQ)

現在、llama.cpp は Gemma 4 をサポートしていますか?

はい。Gemma 4 ファミリー全体の公開 GGUF ビルドが存在し、モデルカードには直接 llama.cpp の使い方が記載されています。

llama.cpp で動作する Gemma 4 モデルはどれですか?

E2B、E4B、26B A4B、31B すべてに公開 GGUF パスがあります。

古い llama.cpp ビルドを使っても大丈夫ですか?

2026年4月初旬のリリース直後に Gemma 4 関連の修正が入ったため、最新のビルドを使用するのが安全です。

Gemma 4 には llama.cpp と LM Studio のどちらが良いですか?

制御と自動化を重視するなら llama.cpp、最も簡単な GUI 優先のワークフローを求めるなら LM Studio を使用してください。


公式リファレンス


関連記事

関連記事

Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

次に何を読めばいいか迷っていますか?

ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。