真实 Gemma 4 Playground,支持思维链展示。附权威本地运行与下载指南(Ollama、LM Studio、llama.cpp、MLX、vLLM、Unsloth)。非官方,重视隐私与透明。
这是独立社区站点。Studio 当前复用登录后的聊天体验。
从这里开始
发布日期:2026 年 3 月 31 日
公告发布时间:2026 年 4 月 2 日
31B、26B、E4B 怎么选
下载、硬件要求和本地运行
发布日期
2026 年 3 月 31 日
Google 公告
2026 年 4 月 2 日
如果你在选模型
31B 更强,26B 更均衡,E4B 更适合轻量本地和边缘设备。
如果你想马上试
直接进 Studio,或者先看 Ollama 指南,用最快方式跑起来。
快速入口
大多数人先找模型尺寸、下载方式、硬件要求和本地运行工具。先把这些问题解决。
选择模型尺寸
如果你不确定,先从更小、更容易跑的版本开始。最适合的模型,是能稳定跑在你机器上、也能完成你日常任务的那个。
本地运行路径
想最快命令行启动,用 Ollama;想桌面界面,用 LM Studio;用 GGUF 看 llama.cpp;Mac 看 MLX;部署服务看 vLLM;准备适配和微调看 Unsloth。
模型对比
先看对比页,再决定继续用 Gemma 4,还是转去 Qwen 或 Gemini。
下一步创作
当你已经有了明确的 prompt、brief 或工作流,再去视频和音乐工具。首页先帮你选型和跑通 Gemma 4。
先用 Studio 和指南确定要跑哪一档、怎么跑。
把答案整理成可复用的 prompt stack、脚本、清单或创意 brief。
方向明确以后,再把结构化结果送进视频或音乐生成链路。
关于这个站
gemma-4.org 是独立社区站点,不是 Google 官方产品。我们链接官方资料、整理实用指南,并在此基础上提供社区 Studio。
独立社区站点,明确标注非官方身份。
以官方 release、model card 和 integration docs 为基准。
Studio 暂时复用登录后聊天体系,不承诺匿名试玩。