Gemma 4 指南

LM Studio 支持 Gemma 4 吗?兼容性、模型列表与内存要求

约 6 分钟
gemma 4lm studio兼容性本地大模型安装指南
可阅读语言English中文
LM Studio 支持 Gemma 4 吗?兼容性、模型列表与内存要求

如果你搜索的是 LM Studio 支持 Gemma 4 吗,先直接回答:支持。

截至 2026 年 4 月 7 日,LM Studio 自己的模型目录已经有 Gemma 4 全家桶的公开页面:

  • Gemma 4 E2B
  • Gemma 4 E4B
  • Gemma 4 26B A4B
  • Gemma 4 31B

所以现在的问题已经不是“支不支持”,而是:LM Studio 具体怎么支持、适合你先跑哪一个型号。


LM Studio 支持 Gemma 4 吗?先给结论

支持。

Google 官方 Gemma 文档里本身就有 Run Gemma with LM Studio 的集成页面,而 LM Studio 自己也已经上了 Gemma 4 系列模型页。

所以 LM Studio 对 Gemma 4 的支持,是双方都明确写出来的正式路径


LM Studio 里现在有哪些 Gemma 4 模型?

目前公开可见的 Gemma 4 模型和最低系统内存如下:

模型 LM Studio 最低系统内存
Gemma 4 E2B 4 GB
Gemma 4 E4B 6 GB
Gemma 4 26B A4B 17 GB
Gemma 4 31B 19 GB

这也是你下载前最实用的一层筛选。


LM Studio 这里说的“支持”到底是什么意思

这点很关键。

LM Studio 文档说明,它本质上是一个本地运行环境,支持:

  • llama.cpp(Mac / Windows / Linux)
  • MLX(Apple Silicon)

而 Gemma 4 的 LM Studio 模型页,实际指向的是 GGUF 路线的社区构建。也就是说,LM Studio 支持 Gemma 4,更准确地说,是它为 Gemma 4 提供了一条非常顺手的本地 GGUF / 本地 runtime 路线。

这意味着:

  • 很适合本地推理
  • 很适合 GUI-first 用户
  • 很适合先试模型、先试提示词
  • 但它不是原生 training workflow

在 LM Studio 里先试哪个 Gemma 4?

对大多数人来说:

  • 想要最好的小模型默认选项:先试 E4B
  • 内存非常紧:退到 E2B
  • 想要本地最强性价比:看 26B A4B
  • 明确知道自己要更强质量且内存够:再上 31B

所以 LM Studio 支持 Gemma 4 这件事是真的,但你最后点开的那个型号,还是应该由硬件决定。


LM Studio 适合什么人?

LM Studio 很适合你,如果你想要:

  • GUI-first 的本地体验
  • 搜索、下载、加载模型都尽量简单
  • 快速比较几个 Gemma 4 型号
  • 不想一开始就自己搭 CLI 和 server

特别是在“我还在比较 Gemma 4 哪个版本最适合我”的阶段,LM Studio 很好用。


什么情况下不该优先选 LM Studio

如果你真正想做的是:

  • 更极致可控的命令行本地服务
  • 微调和训练
  • 原始 Hugging Face / safetensors 工作流
  • 极简自动化部署

那你更应该看:

  • llama.cpp
  • Unsloth

FAQ

LM Studio 现在支持 Gemma 4 吗?

支持。截至 2026 年 4 月 7 日,Gemma 4 四个型号都能在 LM Studio 模型目录里看到公开页面。

LM Studio 这里的支持,指的是什么?

指的是 LM Studio 能通过自己的本地运行时和支持的模型格式,把 Gemma 4 跑起来,尤其是 GGUF 路线。

LM Studio 里最该先试哪个 Gemma 4?

通常先试 E4B,机器强一点再看 26B A4B

LM Studio 能跑 Gemma 4 31B 吗?

能,但当前最低系统内存显示是 19 GB,所以不要把它当成默认起步型号。


官方参考


相关阅读

相关阅读

继续沿着 Gemma 4 内容集群往下读,选一个离你当前决策最近的下一篇。

还没决定下一篇看什么?

回到指南页,按模型对比、本地部署和硬件规划三个方向继续浏览。

切换语言English中文