Gemma 4 ガイド

Unsloth は Gemma 4 に対応している? ローカル実行とファインチューニングの状況

約 6 分
gemma 4unslothファインチューニングローカルLLM互換性
Unsloth は Gemma 4 に対応している? ローカル実行とファインチューニングの状況

Unsloth の Gemma 4 サポートをお探しの方へ、簡潔な答えは 「はい、対応しています」 です。

2026年4月7日現在、Unsloth の公式ドキュメントでは以下のことが可能であるとされています。

  • Unsloth Studio での Gemma 4 のローカル実行
  • GGUF および Safetenser モデルのロード
  • LoRA / QLoRA による Gemma 4 のファインチューニング
  • 画像、音声、および機械学習 (RL) ワークフローへの対応

したがって、重要なのは「Unsloth が Gemma 4 をサポートしているか」ではなく、「どのモデルとトレーニングパスが、あなたのハードウェア環境に適しているか」 という点です。


Unsloth は Gemma 4 をサポートしていますか?(簡単な回答)

はい。

Unsloth の公式ページでは、以下の機能が明示されています。

  • Mac、Linux、WSL、Windows での Gemma 4 のローカル実行
  • ローカルモデル利用のための Unsloth Studio の提供
  • 専用のドキュメントに沿った Gemma 4 のファインチューニング
  • 学習結果の、ローカルランタイム向け GGUF エクスポート

これは単なる回避策ではなく、正式なサポートとして提供されています。


Unsloth でサポートされている Gemma 4 モデルはどれですか?

Unsloth のドキュメントは、ファミリー全体をカバーしています。

  • E2B
  • E4B
  • 26B A4B
  • 31B

ドキュメントでは、ファミリーを以下のように分かりやすく区分しています。

  • E2B および E4B: 音声サポートを備えた小型マルチモーダルモデル
  • 26B A4B および 31B: より大規模なローカル実行およびトレーニングのターゲット

つまり、Unsloth の Gemma 4 サポートは、特定のモデル1つだけに留まりません。


実務における「サポート」の具体的な意味

Unsloth は現在、主に以下の3つの方法で Gemma 4 サポートを提供しています。

1. ローカル実行のサポート

Unsloth Studio を使用して、GGUF や Safetensor モデルをローカルで実行できます。

2. ファインチューニングのサポート

LoRA / QLoRA ワークフローのための公式なトレーニングドキュメントとノートブックが用意されています。

3. エクスポートのサポート

学習済みのモデル(アダプターまたはフルモデル)を、llama.cppOllamaLM Studio などのローカルランタイム向けにエクスポートできます。

チャットだけでなく、本格的なチューニングワークフローを構築したい場合に、Unsloth は特に強力なツールとなります。


大規模な Gemma 4 モデルに関する重要な注意点

サポートされているとはいえ、大規模モデルの扱いはより慎重に行う必要があります。

Unsloth の公式トレーニングドキュメントでは、以下の点が指摘されています。

  • 26B A4B および 31B の Colab ノートブックには、A100 クラスのハードウェアが必要です。
  • 26B A4B MoE については LoRA がサポートされていますが、メモリに余裕がある場合は 16-bit / BF16 LoRA が推奨されます。
  • 26B A4B では、最初から長いコンテキストを扱おうとせず、短いコンテキスト長から始めるのが賢明です。

つまり、Unsloth は Gemma 4 をサポートしていますが、すべてのワークフローが等しく安価、あるいは容易であるわけではありません。


Unsloth でどのモデルを使うべきですか?

ほとんどのユーザーへの推奨は以下の通りです。

  • ワークフローの適合性を検証したい、または小型のマルチモーダルモデルをチューニングしたい場合は E4B を選択してください。
  • ハードウェア予算が極めて厳しい場合のみ E2B を選択してください。
  • 実用的なローカル環境で最も強力なトレーニングを行いたい場合は 26B A4B を選択してください。
  • 最高品質が必要で、かつ十分なメモリがあることが分かっている場合のみ 31B を選択してください。

このため、Unsloth ユーザーにとって E4B26B A4B が最も一般的なスタート地点となります。


Unsloth を選ぶべきケース

以下を目的とする場合は、Unsloth が最適な選択肢です。

  • 単なる推論だけでなく、ファインチューニングを行いたい。
  • ローカルでのワークフローの試行。
  • 学習後の GGUF エクスポート。
  • 重い研究用スタックよりも高速なイテレーション。

推論用の GUI だけを求めている場合は LM Studio を、軽量な推論サーバーやコマンドライン実行だけを求めている場合は llama.cpp を選択してください。


よくある質問 (FAQ)

現在、Unsloth は Gemma 4 をサポートしていますか?

はい。2026年4月現在の最新ドキュメントで、Gemma 4 ファミリーのローカル実行とファインチューニングがカバーされています。

どの Gemma 4 モデルが Unsloth で動作しますか?

E2B、E4B、26B A4B、31B すべてが対象です。

Unsloth で Gemma 4 26B や 31B をファインチューニングできますか?

可能ですが、大規模モデル向けのノートブックは A100 クラスのハードウェアが必要になることがドキュメントで明記されています。

Unsloth で最初に試すべき Gemma 4 モデルは何ですか?

通常、軽いワークフローなら E4B、より本格的なパスなら 26B A4B から始めるのが一般的です。


公式リファレンス


関連記事

関連記事

Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

次に何を読めばいいか迷っていますか?

ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。