Gemma 4 ガイド
LM Studio は Gemma 4 に対応している? 互換性、モデル一覧、要件

LM Studio の Gemma 4 サポートをお探しの方へ、簡潔な答えは 「はい、対応しています」 です。
2026年4月7日現在、LM Studio のモデルカタログには以下の Gemma 4 の全 4 サイズの公式ページが存在します。
- Gemma 4 E2B
- Gemma 4 E4B
- Gemma 4 26B A4B
- Gemma 4 31B
したがって、もはや「対応しているか」を心配する必要はありません。より重要な問いは、「LM Studio がどのようなサポートを提供しているか、そして自分のマシンでどのモデルが快適に動作するか」 という点です。
LM Studio は Gemma 4 をサポートしていますか?(簡単な回答)
はい。Google 公式の Gemma ドキュメントには 「Run Gemma with LM Studio」 という統合ガイドへのリンクがあり、LM Studio 自体にも Gemma 4 ラインナップのライブモデルページが用意されています。
つまり、LM Studio の Gemma 4 サポートは公式かつ最新のものであり、双方のドキュメントで裏付けられています。
LM Studio で利用可能な Gemma 4 モデル一覧
LM Studio は現在、以下のモデルページを公開しています。
| モデル | LM Studio 最小システムメモリ |
|---|---|
| Gemma 4 E2B | 4 GB |
| Gemma 4 E4B | 6 GB |
| Gemma 4 26B A4B | 17 GB |
| Gemma 4 31B | 19 GB |
ダウンロード前に、自分の環境に適合するかどうかをこの表で手早く確認できます。
LM Studio がサポートしている内容の具体例
ここが重要なポイントです。
LM Studio は、以下の環境に対応したローカルランタイムを提供しています。
- Mac、Windows、Linux での llama.cpp
- Apple Silicon での MLX
LM Studio 内の Gemma 4 モデルページは、GGUF ベースのコミュニティビルドを指しています。つまり、実務上、LM Studio の Gemma 4 サポートとは、対応する GGUF ビルドをローカルで簡単に実行できることを意味します。Google 公式の Safetensors をそのまま読み込むのではなく、最適化されたファイルを GUI から選ぶ形になります。
この違いは、以下のような期待値に直結します。
- ローカル推論に最適。
- チャットや素早い評価に最適。
- GUI を好むユーザーに最適。
- 本格的な「学習(トレーニング)」ワークフローを求めている場合には不向き。
LM Studio で最初に試すべき Gemma 4 モデルは何ですか?
ほとんどのユーザーへのガイドラインです。
- 小型モデルの標準的な選択肢として E4B から始めましょう。
- ハードウェアが非常に非力な場合のみ E2B を検討してください。
- 本格的なマシンを所有しており、速度と品質のバランスを求めるなら 26B A4B がおすすめです。
- 31B は、メモリに十分な余裕があることが確実な場合のみ選択してください。
つまり、全ラインナップでサポートは提供されていますが、実際に最初に開くべきなのは、個々のハードウェアの制約に基づいたモデルです。
LM Studio は Gemma 4 に適していますか?
以下のような目的がある場合は、LM Studio が最適な選択となります。
- 最も簡単な GUI 優先のローカル体験をしたい。
- モデルの検索とダウンロードをスムーズに行いたい。
- Gemma 4 の大小のバリアントを素早く比較したい。
- 自分で複雑なスタックを構築せずに、すぐにローカル推論を始めたい。
「どの Gemma 4 モデルが自分に合っているか?」をまだ探っている段階の方には、特に魅力的なツールです。
LM Studio が最適な選択肢ではないケース
以下を目的とする場合は、他のツールの方が適しています。
- 設定の自由度が高いコマンドラインベースのローカルサーバーを立てたい。
- ファインチューニングやアダプターの学習を行いたい。
- Hugging Face の生の学習ワークフローを扱いたい。
- 自動化のために最小限のデプロイスタックを組みたい。
これらの場合は、llama.cpp や Unsloth を次のステップとして検討してください。
よくある質問 (FAQ)
現在、LM Studio は Gemma 4 をサポートしていますか?
はい。2026年4月7日現在、4種類のサイズすべてに公開モデルページがあります。
LM Studio の Gemma 4 サポートとは具体的に何を指しますか?
LM Studio のローカルランタイムを介して、特に GGUF ベースの Gemma 4 ビルドを実行できることを意味します。
LM Studio で最初に試すべきモデルはどれですか?
通常は E4B です。スペックに余裕があるなら 26B A4B を試してください。
LM Studio で Gemma 4 31B を実行できますか?
可能ですが、最小システムメモリとして 19 GB が指定されています。自分のマシンのスペックを確認した上で、慎重に始めてください。
公式リファレンス
- Google: Run Gemma with LM Studio
- LM Studio: Gemma 4 model family
- LM Studio: Gemma 4 E2B
- LM Studio: Gemma 4 E4B
関連記事
関連記事
Gemma 4 の記事群をそのまま辿り、今の判断にいちばん近い次の記事へ進んでください。

LM Studio で Gemma 4 を実行する方法
モデル選択、ハードウェアへの適合性、初回実行のワークフロー、そしてトラブルシューティングに焦点を当てた、Gemma 4 の実用的な LM Studio ガイド。

llama.cpp は Gemma 4 に対応している? GGUF の状況、修正、動作確認済みモデル
llama.cpp が Gemma 4 をサポートしているかという疑問に対し、公式 GGUF リンク、現在のサポート状況、そして「サポート済み」が具体的に何を意味するのかを詳しく回答します。

Unsloth は Gemma 4 に対応している? ローカル実行とファインチューニングの状況
Unsloth が Gemma 4 をサポートしているかという疑問に対し、ローカル実行、ファインチューニングのサポート、および重要なモデル固有の注意点を詳しく解説します。
次に何を読めばいいか迷っていますか?
ガイド一覧に戻って、モデル比較、ローカル導入、ハードウェア計画の3方向から続けて見ていけます。
