Gemma 4 ガイド
Ollama で Gemma 4 を実行する方法:タグ、要件、初回実行ガイド

結論
はい、Ollama は Gemma 4 をサポートしています。2026年4月3日、Google がモデルをリリースしたのと同日に、Ollama v0.20.0 でサポートが開始されました。以下の 2 つのコマンドだけで実行できます。
ollama pull gemma4
ollama run gemma4
デフォルトのタグは gemma4:e4b です。これは 9.6 GB のモデルで、ほとんどの開発者のマシンで快適に動作します。他のサイズが必要な場合は、ダウンロード前に以下のタグ一覧を確認してください。
すべての Gemma 4 Ollama タグ
| タグ名 | ディスク容量 | コンテキスト | アーキテクチャ | 特徴・用途 |
|---|---|---|---|---|
gemma4:e2b |
7.2 GB | 128K | Dense (2.3B 有効) | 低スペック PC、エッジデバイス、音声入力対応 |
gemma4:e4b (推奨) |
9.6 GB | 128K | Dense (4.5B 有効) | 標準の選択肢。多くの開発者に最適 |
gemma4:26b |
18 GB | 256K | MoE (3.8B アクティブ) | 高品質・高速推論。MoE 採用 |
gemma4:31b |
20 GB | 256K | Dense (31B) | 最高品質。コーディングや複雑な推論用 |
gemma4:latestはgemma4:e4bを指します。26bは Mixture-of-Experts (MoE) 方式を採用しており、サイズの割に動作が非常に高速です。
前提条件:Ollama のバージョン確認
Gemma 4 には Ollama v0.20.0 以降が必要です。
ollama --version
古い場合は公式サイトから最新版をインストールするか、コマンドでアップグレードしてください。
ハードウェア要件
| モデル | 最小 RAM / VRAM | 推奨環境 | 備考 |
|---|---|---|---|
gemma4:e2b |
8 GB | 16 GB | CPU のみのマシンに最適 |
gemma4:e4b |
10 GB VRAM | 16–24 GB | 大半のコンシューマー GPU で動作 |
gemma4:26b |
20 GB | 24–32 GB | MoE により、推論はサイズ以上に軽快 |
gemma4:31b |
24 GB VRAM | 32 GB+ | 品質最優先。高性能 GPU を推奨 |
ローカル API の使用方法
Ollama を起動すると、http://localhost:11434 でローカル REST API が利用可能になります。
curl (チャット、OpenAI 互換)
curl http://localhost:11434/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gemma4",
"messages": [
{"role": "user", "content": "PythonでJSONをパースするコードを書いて。"}
]
}'
Python (ollama ライブラリ)
import ollama
response = ollama.chat(
model='gemma4',
messages=[{'role': 'user', 'content': 'Mixture of Experts とは何ですか?'}],
)
print(response['message']['content'])
JavaScript
import ollama from 'ollama'
const response = await ollama.chat({
model: 'gemma4',
messages: [{role: 'user', content: 'こんにちは!'}],
})
console.log(response.message.content)
「思考モード (Thinking Mode)」の使用
Gemma 4 は段階的な推論をサポートしています。有効にするには、システムプロンプトの冒頭に <|think|> トークンを含めます。
response = ollama.chat(
model='gemma4:31b',
messages=[
{'role': 'system', 'content': '<|think|> Step by step で考えて。'},
{'role': 'user', 'content': '難しい数学の問題...'}
],
)
よくあるトラブルと解決策
requires a newer version of Ollama: Ollama を v0.20.0 以降に更新してください。- メモリ不足 (OOM): モデルタグをより小さいもの(
e2bなど)に変更してください。 - レスポンスが遅い: GPU が正しく認識されているか
ollama psで確認してください。CPU 推論になると極端に遅くなります。
次のステップ
ターミナル操作が苦手な場合は、GUI で操作できる LM Studio もおすすめです。もっと詳細な設定を行いたい開発者の方は llama.cpp を検討してください。
関連記事
関連記事
Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

LM Studio は Gemma 4 に対応している? 互換性、モデル一覧、要件
LM Studio が Gemma 4 をサポートしているかという問いに対し、サポート対象モデルの一覧、最小メモリ要件、そして実際のセットアップにおける期待値を明らかにします。

Gemma 4 26B A4B の VRAM 要件: Q4, Q8, F16 と 24 GB GPU への適合性
正確な GGUF サイズ、メモリ計画、そしてなぜ 26B がローカル実行の「スイートスポット」であるかという理由を含む、Gemma 4 26B A4B の VRAM 要件ガイド。

Gemma 4 31B の VRAM 要件: Q4, Q8, F16 と実用的なハードウェア構成
正確な GGUF サイズ、メモリ計画、そしてどのようなハードウェア構成が理にかなっているかという実直なアドバイスを含む、Gemma 4 31B の VRAM 要件ガイド。
次に何を読めばいいか迷っていますか?
ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。
