Claude Code 源码泄露!5 分钟搭建本地离线 AI 程序员,免费无 API 费用

Claude Code 源码泄露!5 分钟搭建本地离线 AI 程序员,免费无 API 费用

就在昨天Claude Code被开源,全网都在疯转Claude Code源码泄露的时候,(据传是下面这位大神第一时间发现的

(这是一位UC Berkeley计算机博士辍学者,研究方向为程序分析、Web安全与分布式系统。作为安全界的「赏金猎人」,他累计漏洞赏金收入约190万美元;同时也是一位连续创业者,曾以联合创始人兼CTO身份创立智能合约安全自动化测试公司FuzzLand,目前担任Solayer Labs核心开发。此前他在Salesforce任安全工程师,负责静态代码分析、内网扫描与数据管道等工作。简单来说,他就是一位专门「找漏洞」的专家,因此能第一时间发现Anthropic的npm配置失误,从一个59.8MB的.map文件中还原出51万行源码。)

下面这位大神则比人先快一步,第一时间build,第一时间支持完全本地化免费使用

零 API 费用,5 分钟将 AI 程序员装进本地电脑
无限次使用、100% 隐私,无需担心 Anthropic API 费用、速率限制或代码被上传云端。直接在 Mac / Windows 上运行,隐私拉满,不限次数,随时写代码。

背景
传统 Claude Code 虽强大,但依赖 API 密钥、需付费、代码上云,对敏感项目不够友好。如今 Ollama 官方新增 Anthropic Messages API 支持,让 Claude Code 可直接对接本地模型,打造一个完全离线的 AI 编码代理,具备读文件、改代码、执行命令等能力。即便没有高端显卡,也可流畅运行 7B~30B 的编码专用模型,满足日常开发、调试、脚本生成等需求。

5 分钟上手教程(保姆级)

准备工作(2 分钟)

  1. 访问 ollama.com 下载并安装 Ollama(Mac / Windows 均支持,安装后自动后台运行)。
  2. 打开终端,输入 ollama --version 验证安装成功。

步骤 1:拉取本地模型

  • 配置一般(16~32GB 内存)推荐:qwen3-coder:7b 或 gemma2:9b
  • 高配设备(RTX 4090 / Mac M 系列高配)推荐:qwen3-coder:30b 或 GLM-4 系列

复制执行以下命令(以 7B 为例):

ollama pull qwen3-coder:7b

步骤 2:安装 Claude Code
终端执行官方安装命令:

curl -fsSL https://claude.ai/install.sh | sh

步骤 3:将 Claude Code 指向本地 Ollama
推荐方式(自动配置):

ollama launch claude --model qwen3-coder:7b

或手动设置环境变量:

export ANTHROPIC_BASE_URL="http://localhost:11434" export ANTHROPIC_AUTH_TOKEN="ollama" claude --model qwen3-coder:7b

步骤 4:测试运行
进入项目文件夹,输入 claude,然后直接说:

“帮我创建一个 Hello World 网站”

即可看到 Claude Code 自动分析目录、创建文件、执行操作,全程本地运行,流畅顺滑。

注意事项 & 进阶 Tips

  • 模型选择:编码能力以 Qwen3-Coder 和 GLM 系列最佳,Gemma2 次之。后续 Ollama 将持续支持更多工具调用能力强的模型。
  • 硬件要求:7B 模型可在普通笔记本运行,30B 模型建议配备 GPU 或 32GB 以上内存。
  • 隐私优势:所有数据处理均在本地完成,无需联网。
  • 局限说明:本地模型的智能水平略逊于云端 Claude Opus,但对绝大多数开发任务已足够,且完全免费。

2026 年,AI 本地化正全面加速。从 ChatGPT 到 Claude,再到如今的 Claude Code 本地版,未来写代码或许不再需要为大厂的云端服务支付高昂费用。

附上地址

链接:https://pan.quark.cn/s/42b9ba892bb7

Read more

从0到1上手OpenClaw:本地安装 + 云部署全攻略,人人都能拥有专属 AI 执行助手

从0到1上手OpenClaw:本地安装 + 云部署全攻略,人人都能拥有专属 AI 执行助手

在上一篇深度解析中,我们见证了 OpenClaw 如何打破 AI “只会说不会做” 的桎梏,从对话式 AI 进化为能落地执行的数字助手。很多朋友留言表示,被 OpenClaw 的全场景能力打动,却卡在了 “安装部署” 这第一步,担心代码门槛太高无从下手,或是怕踩了环境配置的坑迟迟无法启动。 作为系列教程的开篇,我们就从最零门槛、零成本的本地安装讲起,全程附带可直接复制的命令、新手避坑提醒,哪怕你是第一次接触终端操作,跟着步骤走也能顺利完成安装,真正实现 “一句话指令,AI 全流程执行”。 1. 安装前的必备准备 在正式开始安装前,做好这几项基础准备,能帮你避开 90% 的前期踩坑,大幅提升部署成功率,所有需要用到的工具均为免费开源,可直接从官网下载。 (1)硬件适配 不用盲目追求高配,根据自己的使用场景满足基础要求即可: * a. 零基础新手尝鲜试玩:电脑满足 4 核 CPU、

猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI

猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI

猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI,区别在于它的易用度和商业闭环功能 摘要:FastbuildAI 是一个开源 AI 应用“快速构建与商业化闭环”的工具。它让个人开发者与小团队用“可视化 + 零代码”的方式,几分钟把 AI 应用跑起来,并且把后续的算力计费、用户充值、营销与收款也一并考虑到位。当前为 beta.1 版本,已具备 AI 对话、多模型管理、MCP 调用、充值与余额体系等能力,后续会逐步上线工作流、智能体、知识库、插件市场等特性。 开源地址|猫头虎AI分享github: https://github.com/MaoTouHU/FastbuildAI 图1 首页 为什么是 FastbuildAI?(与 Coze、

ANSYS Fluent 2026 R1新功能实测:从汽车风阻优化看AI加速流体仿真

ANSYS Fluent 2026 R1新功能实测:AI如何重塑汽车风阻优化流程 当电动汽车的续航里程成为消费者最关注的指标之一时,风阻系数每降低0.01都意味着实际道路行驶中可观的续航提升。传统CFD仿真虽然能提供准确的气动特性预测,但工程师们长期受限于网格划分的繁琐和计算资源的消耗。ANSYS Fluent 2026 R1的发布,通过深度整合AI技术,正在彻底改变这一局面。 1. AI赋能的网格生成革命 在传统CFD工作流程中,网格划分往往占据整个项目周期的60%以上时间。Fluent 2026 R1引入的AI-Mesh技术,通过机器学习模型自动识别几何特征并预测最优网格密度分布,将这一过程缩短至原来的1/5。 以某电动汽车外流场分析为例,我们对同一车型分别采用传统方法和AI-Mesh进行对比测试: 参数传统方法AI-Mesh差异网格生成时间4.2小时47分钟-82%网格数量1200万980万-18%y+平均值1.20.9-25%近壁层网格正交质量0.850.92+8% 关键改进细节: * 几何特征自动识别:AI模型可准确识别车门缝隙、后视镜边缘等关键区域

当 AI 接管研发流程,传统工程师的天花板在哪?未来 2 年软件工程发展预判

当 AI 接管研发流程,传统工程师的天花板在哪?未来 2 年软件工程发展预判

当AI接管研发流程:传统工程师的天花板与未来2年软件工程预判 一、AI接管研发的真实图景:不是替代,是重构 当前AI在研发流程中的渗透已经远超想象,从需求分析到部署运维的全链路都出现了AI的身影: * 需求阶段:AI可通过用户访谈录音自动生成结构化需求文档,准确率可达85%以上 * 编码阶段:GitHub Copilot、CodeLlama等工具能完成60%-80%的基础代码编写 * 测试阶段:AI自动生成测试用例、执行回归测试、定位bug根因 * 运维阶段:AI监控系统可提前24小时预测系统故障,自动完成资源调度 但必须明确:AI当前的核心角色是"研发助理",而非"替代者"。它擅长处理重复性、规则明确的工作,但在需要深度业务理解、创新设计和复杂问题决策的场景中,仍然依赖人类工程师的判断。 二、传统工程师的天花板:从技能瓶颈到认知瓶颈 在AI协同研发的时代,传统工程师的职业天花板正在从"技术熟练度"转向"认知高度&