《Claude Code 落地实战:本地搭建 + 智谱 GLM-4.7 强强联手,打造最强 AI 编程助手》

《Claude Code 落地实战:本地搭建 + 智谱 GLM-4.7 强强联手,打造最强 AI 编程助手》

前言:

💡 为什么选择 Claude Code + 国产模型?

  • Claude Code:Anthropic 官方出品的命令行编程智能体(Agent),它拥有直接操作文件、执行终端命令、分析 git 提交记录的极高权限,比传统的 Chat 工具更贴近开发者。
  • GLM-4.7:智谱 AI 的明星模型,国内适配度极高,响应速度快且性价比极高,实测在代码生成和逻辑理解上表现优异。
  • CC-Switch:解决协议适配的“瑞士军刀”,让我们能以极低的成本在本地跑起这套顶级工具。

一、 环境准备:Windows 平台极速搭建

在开始之前,请确保你的系统已安装 Node.js (v18+)

1. 提升 PowerShell 权限

为了顺利安装全局包,我们需要调整执行策略。在开始菜单搜索 PowerShell以管理员身份运行,如图(1)所示

图(1)

输入下面指令,如图(2)所示:

PowerShell

# 修改执行策略 Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned # 在弹出的提示中输入 Y 并回车 

图(2)

输入Y后再输入下列这行代码,以检测验证:

PowerShell

# 验证 Get-ExecutionPolicy -List

确定CurrentUser的值是RemoteSigned即可,如下图(3)所示

图(3)

2. 全局安装 Claude Code

利用国内镜像源(淘宝 NPM 镜像)加速下载,避免网络波动,如下图(4)、(5)所示:

PowerShell

# 使用 npmmirror 镜像安装 npm install -g @anthropic-ai/claude-code --registry=https://registry.npmmirror.com # 验证安装是否成功 claude --version 

图(4)

图(5)


二、 核心配置:借力 GLM-4.7 驱动 Claude

由于 Claude Code 原生仅支持 Anthropic API,我们需要通过 cc-switch 进行中转。

1. 获取智谱 AI API Key

  1. 登录 智谱 AI 开放平台
  2. 实名认证提示:新用户实名后通常会赠送千万级别的 Token 额度,足够个人开发者学习和使用数月。
  3. 进入控制台 -> 查看并复制你的 API KEY,如下图(6)、图(7)所示

图(6)

图(7)

2. 安装并配置 cc-switch

cc-switch 是一个开源工具,专门用于拦截 Claude Code 的请求并转发给第三方 Provider。

        1.下载:前往 GitHub 仓库(或国内镜像)下载最新的 .msi 安装包,如图(8)所示。

                        仓库地址:https://github.com/farion1231/cc-switch

图(8)

        2.安装:一路“下一步”完成安装,如下图(9)所示。

图(9)

        3.关键配置步骤

                1.打开 cc-switch 客户端:打开后如图(10)所示,然后点击“添加供应商”。

图(10)

                2.添加供应商:选择zhipu GLM(智谱),如图(11)所示。

                3.填入 Key:粘贴刚才获取的 API KEY,如图(12)所示。

                4.将应用到Claude Code插件选项打开:如图(13)所示。

图(11)

图(12)

图(13)


三、 实战演练:多种方式开启 AI 编程

Claude Code 的精髓在于它不仅能写代码,还能执行代码和调试代码。

1. 方式一:VS Code 内置终端(推荐)

这是最丝滑的体验。在 VS Code 中打开你的项目文件夹:

  • 快捷键 Ctrl + ~ 打开终端。
  • 输入 claude 即可进入交互模式,如图(14)、(15)所示。
  • 优势:左边写代码,右边 AI 实时监控,改完直接 git commit

图(14)

图(15)

2. 方式二:系统原生终端 (CMD/PowerShell)

如果你习惯在独立环境下工作,可以直接在项目目录下运行,如图(16)所示:

Bash

cd your-project-path claude 

图(16)

3. 注意事项

⚠️ 温馨提示:Claude Code 在初次启动时会要求登录 Anthropic 账号。在使用 cc-switch 后,它会模拟登录环境,请按照工具说明进行操作。

四、 进阶技巧:如何给 Claude 下达高质量指令?

  • 文件操作"帮我重构 src/utils/index.js 中的日期处理函数"
  • 错误调试"运行 npm test,根据报错信息修复 bugs"
  • 自动提交通信"总结刚才的修改并帮我提交 git"

结语

通过 Claude Code 的强大控制力加上国产 GLM 模型的高性价比,我们实现了一套近乎完美的本地 AI 编程方案。这不仅解决了网络延迟问题,还极大提升了代码生产力。


想看更多关于 AI Agent 或大模型落地的干货吗?

  • 如果你需要,我可以为你演示如何编写一份 Claude Code 自定义系统提示词(System Prompt),让它更符合你的编码习惯。
  • 或是教你如何配置 DeepSeek 等其他国产模型?

欢迎在评论区留言,我会一一解答!

Read more

AI辅助编程的边界探索:当Copilot学会写测试

AI辅助编程的边界探索:当Copilot学会写测试

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI辅助编程的边界探索:当Copilot学会写测试 🚀 * 1. 从“写代码”到“验代码”:AI的新战场 ⚔️ * 场景设定:一个简单的支付网关模拟器 💳 * 2. 初级实验:AI能写出“Happy Path”吗? ✅ * 3. 进阶实验:Mocking 与 外部依赖 🎭 * 4. 陷阱与幻觉:AI写测试时犯的那些错 🤪 * 案例 A:永远不会错的测试 * 案例 B:永远跑不通的断言 * 案例 C:复杂集成测试的无力 * 5. 人机协作:重新定义测试工作流 🤝 * 实践技巧:如何高效地让AI写测试?

大模型本地部署神器:llama.cpp使用介绍

大模型本地部署神器:llama.cpp使用介绍

介绍llama.cpp 本节主要介绍什么是llama.cpp,以及llama.cpp、llama、ollama的区别。同时说明一下GGUF这种模型文件格式。 什么是llama.cpp llama.cpp是一个由Georgi Gerganov开发的高性能C++库,主要目标是在各种硬件上(本地和云端)以最少的设置和最先进的性能实现大型语言模型推理。 主要特点: * 纯C/C++实现,没有任何依赖 * 对Apple Silicon(如M1/M2/M3芯片)提供一流支持 - 通过ARM NEON、Accelerate和Metal框架优化 * 支持x86架构的AVX、AVX2、AVX512和AMX指令集 * 支持1.5位、2位、3位、4位、5位、6位和8位整数量化,实现更快的推理和更低的内存使用 * 为NVIDIA GPU提供自定义CUDA内核(通过HIP支持AMD GPU,通过MUSA支持摩尔线程MTT GPU)

2026年AI编程工具推荐:从Copilot到Trae,开发者该如何选型?

2026年AI编程工具推荐:从Copilot到Trae,开发者该如何选型?

面对琳琅满目的AI编程工具,字节跳动的Trae正以其本土化优势和工程级代码生成能力,悄然改变着中国开发者的工作流。 “有没有一个能完美适应国内网络环境,理解中文开发需求的AI编程工具?” 当字节跳动推出Trae时,这个问题开始有了清晰答案。与需要科学上网的Cursor、订阅费用昂贵的GitHub Copilot不同,Trae作为原生AI IDE,深度结合了中国开发者的实际工作环境。 一个有趣的现象是,越来越多的中国开发者开始将Trae与VS Code的无缝迁移体验作为选择标准之一。这种“无感切换”正成为本土AI编程工具获取用户的关键策略。 01 核心选型维度 开发者选择AI编程工具时往往陷入功能对比的细节中,而忽略了更本质的匹配度问题。真正影响工作效率的,不是工具宣传的“强大功能”,而是工具与开发者身份、工作场景的契合程度。 对于中国开发者而言,选型维度需要特别增加本土化适配这一项。网络稳定性、中文语境理解、本地支付便利性以及是否符合国内数据安全法规,这些在评估海外工具时常被忽略的因素,实际上决定了工具能否真正融入日常工作流。 不同规模的团队对AI编程工具的需求差异显著

llama.cpp 多环境部署指南:从CPU到CUDA/Metal的高效推理实践

1. 环境准备:从零开始的硬件与软件栈 如果你和我一样,对在本地运行大模型充满好奇,但又不想被复杂的框架和庞大的资源消耗吓退,那 llama.cpp 绝对是你该试试的第一个项目。简单来说,它是一个用 C/C++ 编写的轻量级推理引擎,能把 Hugging Face 上那些动辄几十GB的模型,“瘦身”成几GB的 GGUF 格式文件,然后在你的电脑上——无论是 Mac 的 Apple Silicon 芯片,还是 Windows/Linux 的 CPU 或 NVIDIA GPU——流畅地跑起来。我最初接触它,就是想在不升级显卡的老电脑上体验一下 7B 参数模型的对话能力,结果发现它不仅能在 CPU 上跑,还能充分利用 GPU 加速,效果远超预期。