零成本AI编程:Gemma 4本地运行Claude Code指南
Gemma 4 + Ollama + Free Claude Code: Run AI Coding 100% Locally
本报告由 AI 深度分析生成,基于视频完整字幕。
导读
Jack Roberts 是一位连续创业者,他的上一家科技公司卖出了超过6万份订阅,目前运营着自己的AI自动化公司。在这期视频中,他展示了一个让很多人兴奋的组合方案:用 Google 刚发布的开源模型 Gemma 4,通过 Ollama 在本地电脑上免费运行 Claude Code 编程框架。
这不是一个"要么花钱用最强模型,要么放弃"的二选一——Roberts 提出的是一个务实的混合策略:日常80%的编程任务用免费本地模型搞定,剩下20%的高难度任务再切回 Claude Opus 4.6。对于预算有限但想体验AI编程的人来说,这可能是目前最低门槛的入门路径。
阅读提示
原视频约12分钟,属于手把手教程类内容。本报告在保留完整操作步骤的同时,重点提炼了技术决策背后的逻辑——为什么这个组合值得关注、有什么取舍、适合什么人。
一、核心概念:框架与引擎的分离
Roberts 用了一个非常直观的比喻来解释 Claude Code 的架构:
"Claude Code is the car... the model itself is the engine."(Claude Code 是车,模型本身是引擎。)
这句话点出了一个很多初学者不知道的事实:Claude Code 并非只能搭配 Anthropic 自己的模型使用。它是一个编程框架——提供文件读写、终端操作、项目理解等"底盘"能力。至于"引擎"用谁的,可以替换。插件系统、工具链、交互方式这些"车的功能"不变,只是驱动力来源换了。
这意味着你可以保留 Claude Code 所有好用的功能(插件、计划模式、编辑审批等),同时把昂贵的云端模型换成本地运行的免费开源模型。
二、为什么是 Gemma 4?十个选择本地模型的理由
Roberts 列出了选择本地模型运行的十大优势:
- 隐私——代码和对话完全在你的电脑上,不传任何数据到云端
- 零成本——运行不花一分钱
- 无需联网——飞机上、地铁里、荒郊野外都能用
- 无速率限制——不会因为用太多被限流
- 低延迟——响应速度取决于你的硬件,不受网络波动影响
- 完全控制——模型在你手上,想怎么配置就怎么配置
- 无供应商锁定——不被绑定在任何一家云服务商
- 合规友好——敏感数据不出本地,满足数据合规要求
- 永远可用——不受云服务宕机影响
- 无限实验——想测多少次就测多少次,没有用量焦虑
在众多开源模型中,Gemma 4 脱颖而出有几个关键原因。首先,它在 Arena AI 排行榜上位列第三,证明其能力不是玩具级别的。其次,它与 Gemini 3 共享底层 DNA,继承了 Google 在大模型上的核心技术积累。更重要的是,它提供了四种不同规模的版本,适配从手机到工作站的各种设备。
三、Apache 2.0 许可证——被低估的关键变化
Roberts 特别强调了一个很多人忽视的重大变化:Gemma 4 采用了 Apache 2.0 开源许可证。
之前 Google 的模型使用的是自定义许可证(Google Custom License),存在以下问题:
- 带有专属使用条款,Google 可以随时修改
- 包含"有害用途"的模糊定义,开发者使用时心里没底
- 造成了所谓的"commercial ambiguity"(商业模糊性)——很多企业团队因为许可证的不确定性,转而选择了 Llama 或 Mistral
而 Apache 2.0 是业界公认的标准开源许可证,规则清晰明了:
- 可以商用——用它构建产品并出售,完全合法
- 可以自由修改——微调、定制,随你折腾
- 可以重新分发权重——甚至可以卖模型访问权给客户
- 无自定义限制条款——不存在Google随时改规则的风险
"Just more liberation for everybody to go ahead and use it."(这是对所有人的进一步解放,让大家可以放心使用。)
这个变化对企业用户尤其重要。 许可证的不确定性曾经是阻止很多公司采用 Google 开源模型的头号障碍,现在这个障碍彻底消除了。
四、诚实的性能对比:你会失去什么,得到什么
Roberts 没有回避性能差距的话题,给出了一个坦诚的对比:
你会失去的
| 维度 | Claude Opus 4.6 | Gemma 4 |
|---|---|---|
| 原始智能(基准测试) | 90.5% | 85.2% |
| 上下文窗口 | 100万 tokens | 25.6万 tokens |
| 复杂多步推理 | 顶级 | 较弱 |
| 持续推理链 | 强 | 一般 |
| 指令精确度 | 极高 | 中等 |
| 工具使用复杂度 | 高级 | 基础 |
你会得到的
- 零成本——永远不花钱
- 完全隐私——数据不出本地
- 无速率限制——不被限流
- 无服务中断——不依赖云端可用性
- 离线工作——无需网络连接
Roberts 给出了一个非常务实的判断:
"80% of tasks at zero dollars, and hard stuff 20% with Claude."(80%的任务零成本搞定,20%的难活交给 Claude。)
他用了一个生动的类比来说明分工逻辑:你不会让爱因斯坦去拖地板。爱因斯坦最大的价值是站在白板前推导方程式和物理问题。同理,Claude Opus 4.6 应该被留给那些真正需要"大脑"的复杂任务,而日常的文件操作、简单代码生成、格式化工作交给本地模型就够了。
五、Gemma 4 的四种规格:按设备选模型
Gemma 4 提供了四种参数规模的版本:
| 版本 | 适用设备 | 说明 |
|---|---|---|
| E4B(最小) | 手机、平板 | 参数最少,速度快但能力有限 |
| E4B(笔记本版) | 笔记本电脑 | 适合日常移动开发 |
| 26B(26亿参数) | 工作站 | 性能与速度的平衡点 |
| 更大版本 | 高性能服务器 | 最接近云端模型的本地体验 |
Roberts 建议:在硬件允许的范围内,选尽可能大的版本。更小的模型虽然速度快,但在执行复杂指令时会出现"不情愿"的情况——它们更容易拒绝或给出不完整的回答。他在视频中用 E4B 做演示纯粹是为了展示流程,实际使用建议选 27B 或更大的版本。
一个实用的选型技巧:直接把你电脑的"关于本机"截图发给 Claude,让它推荐该用哪个版本。Claude 会根据你的内存、处理器等配置给出最适合的建议。
六、手把手安装:三步搞定
第一步:安装 Ollama
前往 ollama.com,下载对应系统的安装包(Mac 或 Windows),拖入应用文件夹即可。Ollama 是一个本地模型管理工具,可以理解为"模型的 App Store"——它帮你下载、管理、运行各种开源模型。
第二步:下载 Gemma 4 模型
打开终端,输入一行命令:
ollama pull gemma4:e4b
这会自动拉取模型文件到本地。下载完成后,在 Ollama 的应用界面里就能看到 Gemma 4 已就绪。你可以直接在 Ollama 的界面里测试它——比如问它"谁是有史以来最高的人",它会思考一下然后给出答案,而且整个过程完全在本地完成。
Roberts 还演示了 Gemma 4 的多模态能力:直接截图粘贴到对话中,模型可以识别图片内容并给出描述。这意味着它不仅能处理文字,还能看图——对于需要分析界面截图或错误信息截图的开发场景非常实用。
第三步:将 Gemma 4 接入 Claude Code
在终端中启动 Claude Code 时指定使用本地模型。操作流程:
- 打开终端,运行 Claude Code 的本地模型启动命令
- 选择已下载的 Gemma 4 模型
- 如果之前登录过 Claude 账号,先执行
/logout退出 - 连接 API key(需要在 console.anthropic.com 账户中有约 $5-10 余额,但实际不会消耗——这只是 API 服务验证所需)
注意: 账户里的余额不会被扣除,因为实际推理全在本地运行。这笔钱只是 Claude Code 框架验证 API key 有效性的要求。
七、实战演示:本地编程验证
Roberts 在视频中用一个简单任务验证了整套流程的可用性:
任务: "Create a file hello.html in the current directory with a basic HTML page that has a centered heading that says hello world in a dark background."(在当前目录创建一个 hello.html 文件,包含一个居中标题写着 Hello World,深色背景。)
整个过程:
- Claude Code 接收指令,调用本地 Gemma 4 模型生成代码
- 生成 hello.html 文件,包含完整的 HTML + CSS
- 用户说"open this up for me in localhost"(在本地打开),Claude Code 自动启动本地服务器
- 浏览器弹出页面——"Hello World"在深色背景上居中显示
所有 Claude Code 的核心功能都正常工作: 计划模式(Plan Mode)、编辑审批、文件创建、终端命令执行。唯一的区别是响应速度——本地小模型比云端大模型慢一些,但完全可用。
八、局限性与进阶方向
Roberts 坦诚地指出了这套方案的天花板:
"These models are limited by the size of your laptop and your computer."(这些模型的能力受限于你笔记本和电脑的硬件配置。)
本地模型的算力上限就是你的硬件上限。这意味着:
- 内存不够大的电脑只能跑小参数模型,能力有限
- 真正复杂的编程任务(大型重构、多文件协调修改、深度调试)还是需要云端大模型
- 上下文窗口只有 256K,无法像 Opus 4.6(1M)那样处理超大型代码库
Roberts 暗示他会在后续视频中介绍如何免费使用不受本地硬件限制的强大模型——这可能涉及免费的云端开源模型服务(如 Groq、Together AI 等提供的免费 API 额度)。
金句收录
-
"Claude Code is the car, the model itself is the engine." (Claude Code 是车,模型本身是引擎。)
-
"Don't compare it to a subscription like Netflix or your gym. It is like the equivalent of having a 50k salary person for $200 a month." (不要把它和 Netflix 订阅或健身房会费类比。它相当于用每月200美元雇了一个年薪5万美元的员工。)
-
"80% of tasks at zero dollars, and hard stuff 20% with Claude." (80%的任务零成本搞定,20%的难活交给 Claude。)
-
"We wouldn't ask Albert Einstein to mop off floors." (我们不会让爱因斯坦去拖地板。)
-
"It's something you physically have on your computer... just like we used to with old fashioned games, DVDs." (它是你电脑上实实在在拥有的东西……就像过去我们拥有游戏光盘和 DVD 一样。)
-
"Just more liberation for everybody to go ahead and use it." (这是对所有人的进一步解放,让大家可以放心使用。)
-
"The smaller they are, the more kind of reluctant they are to do something sometimes." (模型越小,有时候就越"不情愿"执行指令。)
时间线索引
| 时间 | 内容 |
|---|---|
| [00:00] | 开场:用 Claude Code 实现100%免费本地编程的承诺 |
| [00:27] | 自我介绍:Jack Roberts,前创业者,现AI自动化公司 |
| [00:39] | Claude 4.6 家族是最强模型,但有 token 限制 |
| [00:47] | 核心概念:Claude Code 框架可以搭配其他模型 |
| [01:09] | 本地运行的十大优势(隐私、零成本、离线等) |
| [01:31] | 类比解释:Claude Code 是车,模型是引擎 |
| [01:54] | 诚实讨论:$200/月 Claude Max 的价值与本地方案的取舍 |
| [02:44] | Gemma 4 介绍:Google 新发布的开源模型 |
| [02:51] | Gemma 4 的四种规格(手机到工作站) |
| [03:40] | 八个关键特性:Arena AI 第三、Gemini DNA、Apache 2.0 |
| [03:54] | Apache 2.0 许可证深度解读:为什么这是重大变化 |
| [04:44] | 技术参数:推理能力、256K上下文、多模态 |
| [05:08] | 性能对比:Gemma 4 vs Opus 4.6 vs Sonnet 4.6 |
| [05:37] | 具体损失与收获清单 |
| [06:02] | 实用策略:"80%免费 + 20%付费"混合方案 |
| [06:20] | 开始实操:安装 Ollama |
| [06:42] | 下载 Ollama 应用并安装 |
| [07:00] | 浏览 Ollama 模型库 |
| [07:20] | 用"关于本机"截图让 Claude 推荐模型版本 |
| [08:00] | 终端命令下载 Gemma 4 模型 |
| [08:36] | 在 Ollama 中验证模型可用 + 多模态测试 |
| [09:22] | 将 Gemma 4 接入 Claude Code 框架 |
| [10:00] | API key 配置说明(需 $5-10 余额但不消耗) |
| [10:36] | 实战演示:生成 Hello World 页面 |
| [11:00] | 确认所有 Claude Code 功能正常工作 |
| [11:37] | 局限性说明:本地硬件是天花板 |
| [11:54] | 预告:后续将介绍不受本地限制的免费方案 |
评论
还没有评论,来第一个留言吧 ✨