Gemma 4 ガイド

Ollama で Gemma 4 を実行する方法:タグ、要件、初回実行ガイド

約 9 分
gemma 4ollamaローカルLLMセットアップガイドgemma4 タグハードウェア要件
Ollama で Gemma 4 を実行する方法:タグ、要件、初回実行ガイド

結論

はい、Ollama は Gemma 4 をサポートしています。2026年4月3日、Google がモデルをリリースしたのと同日に、Ollama v0.20.0 でサポートが開始されました。以下の 2 つのコマンドだけで実行できます。

ollama pull gemma4
ollama run gemma4

デフォルトのタグは gemma4:e4b です。これは 9.6 GB のモデルで、ほとんどの開発者のマシンで快適に動作します。他のサイズが必要な場合は、ダウンロード前に以下のタグ一覧を確認してください。


すべての Gemma 4 Ollama タグ

タグ名 ディスク容量 コンテキスト アーキテクチャ 特徴・用途
gemma4:e2b 7.2 GB 128K Dense (2.3B 有効) 低スペック PC、エッジデバイス、音声入力対応
gemma4:e4b (推奨) 9.6 GB 128K Dense (4.5B 有効) 標準の選択肢。多くの開発者に最適
gemma4:26b 18 GB 256K MoE (3.8B アクティブ) 高品質・高速推論。MoE 採用
gemma4:31b 20 GB 256K Dense (31B) 最高品質。コーディングや複雑な推論用
  • gemma4:latestgemma4:e4b を指します。
  • 26b は Mixture-of-Experts (MoE) 方式を採用しており、サイズの割に動作が非常に高速です。

前提条件:Ollama のバージョン確認

Gemma 4 には Ollama v0.20.0 以降が必要です。

ollama --version

古い場合は公式サイトから最新版をインストールするか、コマンドでアップグレードしてください。


ハードウェア要件

モデル 最小 RAM / VRAM 推奨環境 備考
gemma4:e2b 8 GB 16 GB CPU のみのマシンに最適
gemma4:e4b 10 GB VRAM 16–24 GB 大半のコンシューマー GPU で動作
gemma4:26b 20 GB 24–32 GB MoE により、推論はサイズ以上に軽快
gemma4:31b 24 GB VRAM 32 GB+ 品質最優先。高性能 GPU を推奨

ローカル API の使用方法

Ollama を起動すると、http://localhost:11434 でローカル REST API が利用可能になります。

curl (チャット、OpenAI 互換)

curl http://localhost:11434/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemma4",
    "messages": [
      {"role": "user", "content": "PythonでJSONをパースするコードを書いて。"}
    ]
  }'

Python (ollama ライブラリ)

import ollama

response = ollama.chat(
    model='gemma4',
    messages=[{'role': 'user', 'content': 'Mixture of Experts とは何ですか?'}],
)
print(response['message']['content'])

JavaScript

import ollama from 'ollama'

const response = await ollama.chat({
  model: 'gemma4',
  messages: [{role: 'user', content: 'こんにちは!'}],
})
console.log(response.message.content)

「思考モード (Thinking Mode)」の使用

Gemma 4 は段階的な推論をサポートしています。有効にするには、システムプロンプトの冒頭に <|think|> トークンを含めます。

response = ollama.chat(
    model='gemma4:31b',
    messages=[
        {'role': 'system', 'content': '<|think|> Step by step で考えて。'},
        {'role': 'user', 'content': '難しい数学の問題...'}
    ],
)

よくあるトラブルと解決策

  • requires a newer version of Ollama: Ollama を v0.20.0 以降に更新してください。
  • メモリ不足 (OOM): モデルタグをより小さいもの(e2b など)に変更してください。
  • レスポンスが遅い: GPU が正しく認識されているか ollama ps で確認してください。CPU 推論になると極端に遅くなります。

次のステップ

ターミナル操作が苦手な場合は、GUI で操作できる LM Studio もおすすめです。もっと詳細な設定を行いたい開発者の方は llama.cpp を検討してください。

関連記事

関連記事

Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

次に何を読めばいいか迷っていますか?

ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。