Gemma 4 指南
LM Studio 支持 Gemma 4 吗?兼容性、模型列表与内存要求

如果你搜索的是 LM Studio 支持 Gemma 4 吗,先直接回答:支持。
截至 2026 年 4 月 7 日,LM Studio 自己的模型目录已经有 Gemma 4 全家桶的公开页面:
- Gemma 4 E2B
- Gemma 4 E4B
- Gemma 4 26B A4B
- Gemma 4 31B
所以现在的问题已经不是“支不支持”,而是:LM Studio 具体怎么支持、适合你先跑哪一个型号。
LM Studio 支持 Gemma 4 吗?先给结论
支持。
Google 官方 Gemma 文档里本身就有 Run Gemma with LM Studio 的集成页面,而 LM Studio 自己也已经上了 Gemma 4 系列模型页。
所以 LM Studio 对 Gemma 4 的支持,是双方都明确写出来的正式路径。
LM Studio 里现在有哪些 Gemma 4 模型?
目前公开可见的 Gemma 4 模型和最低系统内存如下:
| 模型 | LM Studio 最低系统内存 |
|---|---|
| Gemma 4 E2B | 4 GB |
| Gemma 4 E4B | 6 GB |
| Gemma 4 26B A4B | 17 GB |
| Gemma 4 31B | 19 GB |
这也是你下载前最实用的一层筛选。
LM Studio 这里说的“支持”到底是什么意思
这点很关键。
LM Studio 文档说明,它本质上是一个本地运行环境,支持:
- llama.cpp(Mac / Windows / Linux)
- MLX(Apple Silicon)
而 Gemma 4 的 LM Studio 模型页,实际指向的是 GGUF 路线的社区构建。也就是说,LM Studio 支持 Gemma 4,更准确地说,是它为 Gemma 4 提供了一条非常顺手的本地 GGUF / 本地 runtime 路线。
这意味着:
- 很适合本地推理
- 很适合 GUI-first 用户
- 很适合先试模型、先试提示词
- 但它不是原生 training workflow
在 LM Studio 里先试哪个 Gemma 4?
对大多数人来说:
- 想要最好的小模型默认选项:先试 E4B
- 内存非常紧:退到 E2B
- 想要本地最强性价比:看 26B A4B
- 明确知道自己要更强质量且内存够:再上 31B
所以 LM Studio 支持 Gemma 4 这件事是真的,但你最后点开的那个型号,还是应该由硬件决定。
LM Studio 适合什么人?
LM Studio 很适合你,如果你想要:
- GUI-first 的本地体验
- 搜索、下载、加载模型都尽量简单
- 快速比较几个 Gemma 4 型号
- 不想一开始就自己搭 CLI 和 server
特别是在“我还在比较 Gemma 4 哪个版本最适合我”的阶段,LM Studio 很好用。
什么情况下不该优先选 LM Studio
如果你真正想做的是:
- 更极致可控的命令行本地服务
- 微调和训练
- 原始 Hugging Face / safetensors 工作流
- 极简自动化部署
那你更应该看:
- llama.cpp
- Unsloth
FAQ
LM Studio 现在支持 Gemma 4 吗?
支持。截至 2026 年 4 月 7 日,Gemma 4 四个型号都能在 LM Studio 模型目录里看到公开页面。
LM Studio 这里的支持,指的是什么?
指的是 LM Studio 能通过自己的本地运行时和支持的模型格式,把 Gemma 4 跑起来,尤其是 GGUF 路线。
LM Studio 里最该先试哪个 Gemma 4?
通常先试 E4B,机器强一点再看 26B A4B。
LM Studio 能跑 Gemma 4 31B 吗?
能,但当前最低系统内存显示是 19 GB,所以不要把它当成默认起步型号。
官方参考
- Google:Run Gemma with LM Studio
- LM Studio docs
- LM Studio: Gemma 4 model family
- LM Studio: Gemma 4 E2B
- LM Studio: Gemma 4 E4B
- LM Studio: Gemma 4 26B A4B
- LM Studio: Gemma 4 31B
相关阅读
相关阅读
继续沿着 Gemma 4 内容集群往下读,选一个离你当前决策最近的下一篇。

llama.cpp 支持 Gemma 4 吗?GGUF 状态、修复与当前可用性
直接回答 llama.cpp 是否支持 Gemma 4,并整理官方 GGUF 链接、修复状态与当前最实用的判断方式。


Gemma 4 26B A4B 显存要求:Q4、Q8、F16 与 24GB 显卡适配
一篇聚焦 Gemma 4 26B A4B 显存要求的实用指南,帮你判断 26B 为什么是很多本地用户最值得先试的版本。
还没决定下一篇看什么?
回到指南页,按模型对比、本地部署和硬件规划三个方向继续浏览。
