Gemma 4 ガイド
Unsloth は Gemma 4 に対応している? ローカル実行とファインチューニングの状況

Unsloth の Gemma 4 サポートをお探しの方へ、簡潔な答えは 「はい、対応しています」 です。
2026年4月7日現在、Unsloth の公式ドキュメントでは以下のことが可能であるとされています。
- Unsloth Studio での Gemma 4 のローカル実行
- GGUF および Safetenser モデルのロード
- LoRA / QLoRA による Gemma 4 のファインチューニング
- 画像、音声、および機械学習 (RL) ワークフローへの対応
したがって、重要なのは「Unsloth が Gemma 4 をサポートしているか」ではなく、「どのモデルとトレーニングパスが、あなたのハードウェア環境に適しているか」 という点です。
Unsloth は Gemma 4 をサポートしていますか?(簡単な回答)
はい。
Unsloth の公式ページでは、以下の機能が明示されています。
- Mac、Linux、WSL、Windows での Gemma 4 のローカル実行
- ローカルモデル利用のための Unsloth Studio の提供
- 専用のドキュメントに沿った Gemma 4 のファインチューニング
- 学習結果の、ローカルランタイム向け GGUF エクスポート
これは単なる回避策ではなく、正式なサポートとして提供されています。
Unsloth でサポートされている Gemma 4 モデルはどれですか?
Unsloth のドキュメントは、ファミリー全体をカバーしています。
- E2B
- E4B
- 26B A4B
- 31B
ドキュメントでは、ファミリーを以下のように分かりやすく区分しています。
- E2B および E4B: 音声サポートを備えた小型マルチモーダルモデル
- 26B A4B および 31B: より大規模なローカル実行およびトレーニングのターゲット
つまり、Unsloth の Gemma 4 サポートは、特定のモデル1つだけに留まりません。
実務における「サポート」の具体的な意味
Unsloth は現在、主に以下の3つの方法で Gemma 4 サポートを提供しています。
1. ローカル実行のサポート
Unsloth Studio を使用して、GGUF や Safetensor モデルをローカルで実行できます。
2. ファインチューニングのサポート
LoRA / QLoRA ワークフローのための公式なトレーニングドキュメントとノートブックが用意されています。
3. エクスポートのサポート
学習済みのモデル(アダプターまたはフルモデル)を、llama.cpp、Ollama、LM Studio などのローカルランタイム向けにエクスポートできます。
チャットだけでなく、本格的なチューニングワークフローを構築したい場合に、Unsloth は特に強力なツールとなります。
大規模な Gemma 4 モデルに関する重要な注意点
サポートされているとはいえ、大規模モデルの扱いはより慎重に行う必要があります。
Unsloth の公式トレーニングドキュメントでは、以下の点が指摘されています。
- 26B A4B および 31B の Colab ノートブックには、A100 クラスのハードウェアが必要です。
- 26B A4B MoE については LoRA がサポートされていますが、メモリに余裕がある場合は 16-bit / BF16 LoRA が推奨されます。
- 26B A4B では、最初から長いコンテキストを扱おうとせず、短いコンテキスト長から始めるのが賢明です。
つまり、Unsloth は Gemma 4 をサポートしていますが、すべてのワークフローが等しく安価、あるいは容易であるわけではありません。
Unsloth でどのモデルを使うべきですか?
ほとんどのユーザーへの推奨は以下の通りです。
- ワークフローの適合性を検証したい、または小型のマルチモーダルモデルをチューニングしたい場合は E4B を選択してください。
- ハードウェア予算が極めて厳しい場合のみ E2B を選択してください。
- 実用的なローカル環境で最も強力なトレーニングを行いたい場合は 26B A4B を選択してください。
- 最高品質が必要で、かつ十分なメモリがあることが分かっている場合のみ 31B を選択してください。
このため、Unsloth ユーザーにとって E4B と 26B A4B が最も一般的なスタート地点となります。
Unsloth を選ぶべきケース
以下を目的とする場合は、Unsloth が最適な選択肢です。
- 単なる推論だけでなく、ファインチューニングを行いたい。
- ローカルでのワークフローの試行。
- 学習後の GGUF エクスポート。
- 重い研究用スタックよりも高速なイテレーション。
推論用の GUI だけを求めている場合は LM Studio を、軽量な推論サーバーやコマンドライン実行だけを求めている場合は llama.cpp を選択してください。
よくある質問 (FAQ)
現在、Unsloth は Gemma 4 をサポートしていますか?
はい。2026年4月現在の最新ドキュメントで、Gemma 4 ファミリーのローカル実行とファインチューニングがカバーされています。
どの Gemma 4 モデルが Unsloth で動作しますか?
E2B、E4B、26B A4B、31B すべてが対象です。
Unsloth で Gemma 4 26B や 31B をファインチューニングできますか?
可能ですが、大規模モデル向けのノートブックは A100 クラスのハードウェアが必要になることがドキュメントで明記されています。
Unsloth で最初に試すべき Gemma 4 モデルは何ですか?
通常、軽いワークフローなら E4B、より本格的なパスなら 26B A4B から始めるのが一般的です。
公式リファレンス
関連記事
関連記事
Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

llama.cpp は Gemma 4 に対応している? GGUF の状況、修正、動作確認済みモデル
llama.cpp が Gemma 4 をサポートしているかという疑問に対し、公式 GGUF リンク、現在のサポート状況、そして「サポート済み」が具体的に何を意味するのかを詳しく回答します。

LM Studio は Gemma 4 に対応している? 互換性、モデル一覧、要件
LM Studio が Gemma 4 をサポートしているかという問いに対し、サポート対象モデルの一覧、最小メモリ要件、そして実際のセットアップにおける期待値を明らかにします。

Unsloth で Gemma 4 をファインチューニングする方法:ステップバイステップガイド
このステップバイステップガイドを活用して、Unsloth で Gemma 4 をファインチューニングし、ハードウェアに適したモデルを選択し、その結果を Ollama、llama.cpp、または LM Studio 向けにエクスポートしましょう。
次に何を読めばいいか迷っていますか?
ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。
