Gemma 4 指南

Unsloth 支持 Gemma 4 吗?本地运行与微调支持现状

约 6 分钟
gemma 4unsloth微调本地大模型兼容性
可阅读语言English中文
Unsloth 支持 Gemma 4 吗?本地运行与微调支持现状

如果你搜索的是 Unsloth 支持 Gemma 4 吗,先给明确答案:支持。

截至 2026 年 4 月 7 日,Unsloth 的官方 Gemma 4 文档已经明确写到,你可以:

  • Unsloth Studio 里本地运行 Gemma 4
  • 加载 GGUF 和 safetensor 模型
  • LoRA / QLoRA 微调 Gemma 4
  • vision、audio、RL 相关工作流

所以现在的问题不是“支不支持”,而是:你应该用哪个 Gemma 4,走哪条 Unsloth 路线。


Unsloth 支持 Gemma 4 吗?先给结论

支持。

从官方文档来看,Unsloth 对 Gemma 4 的支持至少包括:

  • 本地运行
  • 微调
  • 导出到 GGUF
  • 多种平台安装(Mac、Linux、WSL、Windows)

这不是临时 workaround,而是正式文档里的路径。


哪些 Gemma 4 模型在 Unsloth 里可用?

Unsloth 的 Gemma 4 文档覆盖了整个家族:

  • E2B
  • E4B
  • 26B A4B
  • 31B

同时,官方文档也把家族分得很清楚:

  • E2B / E4B:小模型、多模态、支持音频
  • 26B A4B / 31B:更大的本地推理与训练目标

所以 Unsloth 支持 Gemma 4 并不是只支持某一个型号。


这里的支持具体意味着什么

对普通用户来说,Unsloth 目前提供的是三层支持:

1. 本地运行支持

Unsloth Studio 可以本地跑 GGUF 和 safetensor 模型。

2. 微调支持

官方有专门的 Gemma 4 训练文档与 notebook,覆盖 LoRA / QLoRA 路线。

3. 导出支持

训练或适配后的结果可以继续导向 llama.cpp、Ollama、LM Studio 等本地路线。

这也是为什么 Unsloth 对很多人来说,不只是“能不能跑”,而是“能不能形成一个完整 workflow”。


大模型要注意什么限制

这里要讲清楚一点。

根据 Unsloth 的官方 Gemma 4 训练文档:

  • 26B A4B 和 31B 的 Colab notebook 需要 A100 级别硬件
  • 26B A4B 这种 MoE 模型,LoRA 是支持的,但如果内存允许,更推荐 16-bit / BF16 LoRA
  • 26B A4B 建议先从较短上下文开始,再往上扩

所以 Unsloth 支持 Gemma 4,但并不意味着每一种 Gemma 4 工作流都同样便宜。


在 Unsloth 里应该先用哪个 Gemma 4?

对大多数人来说:

  • 先验证流程:看 E4B
  • 内存特别紧:退到 E2B
  • 想要更强、但又追求实际本地性价比:看 26B A4B
  • 明确要最高质量且预算足:再看 31B

所以在 Unsloth 里,E4B 和 26B A4B 往往是最常见的起点。


什么情况下应该优先用 Unsloth

如果你想做的是:

  • 微调
  • workflow 实验
  • GGUF 导出
  • 比传统研究栈更轻一点的训练路线

那优先考虑 Unsloth

如果你只是想要 GUI 本地聊天,优先看 LM Studio

如果你只是想要轻量 CLI / server 推理,优先看 llama.cpp


FAQ

Unsloth 现在支持 Gemma 4 吗?

支持。2026 年 4 月的官方文档已经覆盖本地运行和微调。

哪些 Gemma 4 模型在 Unsloth 里可用?

E2B、E4B、26B A4B、31B 都在支持范围内。

Unsloth 能微调 26B 和 31B 吗?

能,但官方文档也明确说明,大模型 notebook 会进入 A100 级 硬件区间。

在 Unsloth 里最该先从哪个 Gemma 4 开始?

通常先看 E4B,或者直接看更实用的 26B A4B


官方参考


相关阅读

相关阅读

继续沿着 Gemma 4 内容集群往下读,选一个离你当前决策最近的下一篇。

还没决定下一篇看什么?

回到指南页,按模型对比、本地部署和硬件规划三个方向继续浏览。

切换语言English中文