独立维护的 Gemma 4 社区站点

Gemma 4:现在就在线体验,或按指南本地运行

真实 Gemma 4 Playground,支持思维链展示。附权威本地运行与下载指南(Ollama、LM Studio、llama.cpp、MLX、vLLM、Unsloth)。非官方,重视隐私与透明。

这是独立社区站点。Studio 当前复用登录后的聊天体验。

从这里开始

大多数人来这里,先想解决这几件事

快速总览

发布日期:2026 年 3 月 31 日

公告发布时间:2026 年 4 月 2 日

31B、26B、E4B 怎么选

下载、硬件要求和本地运行

发布日期

2026 年 3 月 31 日

Google 公告

2026 年 4 月 2 日

如果你在选模型

31B 更强,26B 更均衡,E4B 更适合轻量本地和边缘设备。

如果你想马上试

直接进 Studio,或者先看 Ollama 指南,用最快方式跑起来。

选择模型尺寸

Gemma 4 应该先选哪一档?

如果你不确定,先从更小、更容易跑的版本开始。最适合的模型,是能稳定跑在你机器上、也能完成你日常任务的那个。

31B

复杂推理、长结构输出、高质量对比测试。

尺寸

如果你更在意结果质量,而且能接受更高的算力成本,就从 31B 看起。

硬件预期

更适合大显存本地环境或托管推理。

更适合

复杂推理、长结构输出、高质量对比测试。

查看页面

26B

编码辅助、研究整理、日常助手工作。

尺寸

如果你想兼顾质量、速度和部署现实,通常先看 26B 就对了。

硬件预期

适合较强本地环境或托管推理。

更适合

编码辅助、研究整理、日常助手工作。

查看页面

E4B

提示词实验、原型验证、轻量工作流。

尺寸

如果你只想先跑起来、先试 prompt,E4B 是最轻松的起点。

硬件预期

适合笔记本、边缘设备和小规模测试环境。

更适合

提示词实验、原型验证、轻量工作流。

查看页面

本地运行路径

按你的工作方式选本地运行路径

想最快命令行启动,用 Ollama;想桌面界面,用 LM Studio;用 GGUF 看 llama.cpp;Mac 看 MLX;部署服务看 vLLM;准备适配和微调看 Unsloth。

Ollama

适合命令行快速启动、本地重复实验和演示。

LM Studio

适合偏桌面端的下载、切换与可视化管理。

llama.cpp

适合 GGUF、本地精简运行和更底层的控制。

MLX

面向 Mac 和 Apple silicon 的本地 Gemma 4 路径。

vLLM

面向托管推理和生产级 API 服务。

Unsloth

适合从试用进入适配、微调和训练准备。

在线试用

想试想法时,直接打开 Studio

Studio 目前就是站内登录后的聊天体验。适合拿来比较模型、起草 prompt、把笔记整理成能直接执行的方案。

  • 先问哪一档适合你的机器和任务。
  • 让它给你写 Ollama 或 LM Studio 的启动清单。
  • 把研究笔记整理成 prompt、脚本或 brief。

Studio 提示示例

示例 1

帮我比较 Gemma 4 31B 和 26B,哪种更适合本地写代码。

示例 2

给我一份在 Mac mini 上用 Ollama 跑 Gemma 4 的检查清单。

示例 3

把这份分析整理成一个电影感视频 prompt 和一段旁白提纲。

下一步创作

先想清楚,再进入创作

当你已经有了明确的 prompt、brief 或工作流,再去视频和音乐工具。首页先帮你选型和跑通 Gemma 4。

1. 选模型或部署路径

先用 Studio 和指南确定要跑哪一档、怎么跑。

2. 变成 prompt 或 workflow

把答案整理成可复用的 prompt stack、脚本、清单或创意 brief。

3. 再创作

方向明确以后,再把结构化结果送进视频或音乐生成链路。

把答案变成视频 brief

先把结果整理成 shot list、prompt stack 或短脚本,再进入视频生成。

打开视频创作器

把笔记变成音乐 brief

把情绪、节奏和场景笔记整理好,再交给音乐生成工具。

打开音乐创作器

关于这个站

先知道这个站是什么,再决定要不要用

gemma-4.org 是独立社区站点,不是 Google 官方产品。我们链接官方资料、整理实用指南,并在此基础上提供社区 Studio。

身份

独立社区站点,明确标注非官方身份。

资料来源

以官方 release、model card 和 integration docs 为基准。

数据与访问

Studio 暂时复用登录后聊天体系,不承诺匿名试玩。