Claude Code + cc-switch 配置指南

本指南旨在引导初次接触的用户,一步步完成 Claude Code 命令行工具 (CLI) 和 cc-switch 的安装与配置。完成配置后,用户即可在代码编辑器的终端中,通过简单的命令,调用 Kimi、GPT-4 或其他主流 AI 模型,辅助完成代码编写、解释和调试等任务。

核心结论Claude Codecc-switch 结合使用,可以显著提升编程工作的效率。

目录
  • 1. 准备工作:配置必需的 Node.js 环境
  • 2. 第一步:安装 Claude Code 命令行工具
  • 3. 第二步:安装 cc-switch 模型管理工具
  • 4. 第三步:获取 AI 模型的 API Key
  • 5. 第四步:在 cc-switch 中配置 AI 模型
  • 6. 第五步:激活配置并进行验证
  • 7. 第六步:在实际项目中使用
  • 8. 注意事项:理解并应对 API 频率限制

1. 准备工作:配置必需的 Node.js 环境

Claude Code CLI 是一个基于 Node.js 的工具,其成功安装和运行严格依赖于系统中的 Node.js 版本。

为什么必须使用较新版本的 Node.js?

Claude Code 的开发者在其包配置中明确指定了所支持的 Node.js 最低版本。如果使用低于要求的版本进行安装,包管理器 (npm) 会无法正确处理依赖关系,并抛出一系列警告,最终导致安装失败或即使安装完成也无法运行。

例如,在 Node.js v14 的环境中尝试安装,会收到如下错误日志:

npm WARN notsup Unsupported engine for @anthropic-ai/[email protected]: wanted: {"node":">=18.0.0"}(current: {"node":"14.18.3","npm":"6.14.15"})npm WARN notsup Not compatible with your version of node/npm: @anthropic-ai/[email protected] 

这行日志清晰地指出:claude-code要求 (wanted) Node.js 版本大于等于 18.0.0,但当前环境 (current) 的版本是 14.18.3,因此不兼容。忽略这些警告将导致后续使用时出现问题。

检查并安装正确的 Node.js 版本
  1. 确认版本要求:请确保输出的版本号为 v18.0.0 或更高
  2. 安装与管理 (推荐使用 nvm)如果版本不符,强烈建议使用 nvm (Node Version Manager) 来进行安装和版本管理。nvm 可以在同一台电脑上维护多个 Node.js 版本并轻松切换。完成切换后,再次运行 node -v 进行确认。
    • 安装 nvm
      • macOS / Linux: 参考 nvm-sh/nvm GitHub 官方指南。
      • Windows: 使用 nvm-windows(适配Windows的nvm版本),具体步骤如下(Node.js自带npm包管理器,旧版本Node/npm会与nvm管理的版本冲突,需先彻底清理):
        1. 备份npm自定义配置(可选):按 Win + R 输入 %AppData%\npm 打开文件夹,若存在 etc\npmrc 文件,复制到桌面备份;无该文件则直接跳过。
        2. 卸载旧版Node.js:打开「控制面板」→「程序和功能」,找到所有名称包含「Node.js」的程序,右键选择「卸载」并按提示完成。
        3. 删除Node/npm残留文件夹
          • Win + R 输入 C:\Program Files\nodejs(或 C:\Program Files (x86)\nodejs),若文件夹存在则删除;
          • 再次按 Win + R 分别输入 %AppData%\npm%AppData%\npm-cache,若文件夹存在则删除。
        4. 下载nvm-windows 1.2.2安装包:打开 nvm-windows 1.2.2 发布页,下拉到「Assets」(资源)区域,点击 nvm-setup.exe 下载(新手推荐此一键安装包)。
        5. 安装nvm-windows
          • 找到下载的 nvm-setup.exe 双击打开,弹出「用户账户控制」时点击「是」;
          • 勾选「I accept the agreement」→ 点击「Next」;
          • 保留默认安装路径(如 C:\Users\你的用户名\AppData\Roaming\nvm)→ 点击「Next」;
          • 保留Node.js符号链接默认路径(C:\Program Files\nodejs)→ 点击「Next」;
          • 点击「Install」开始安装,进度条完成后点击「Finish」。
        6. 验证安装成功:以管理员身份打开CMD/PowerShell,输入 nvm version,若输出 1.2.2 则安装成功。

使用 nvm 安装并切换到 Node.js 18

# 安装 Node.js v18 的最新稳定版 nvm install18# 将当前会话的 Node.js 版本切换为 v18 nvm use 18

检查当前版本:打开终端(在 Windows 上是 CMDPowerShell,在 Mac 上是 Terminal),输入以下命令:

node -v 
2. 第一步:安装 Claude Code 命令行工具

Claude Code 是一个命令行界面 (CLI) 工具,用于在终端内与 AI 进行交互。

在终端中运行以下命令进行安装:

npminstall -g @anthropic-ai/claude-code 
  • npm 是 Node.js 的包管理器,该命令将从 npm 仓库下载并安装 claude-code
  • -g 参数代表“全局安装”,确保 claude 命令可以在系统的任何路径下被调用。

安装完成后,输入 claude 并回车,若显示 Claude Code 的欢迎界面,则表示安装成功。

3. 第二步:安装 cc-switch 模型管理工具

cc-switch 是一个图形化桌面应用,其核心功能是帮助用户管理并切换 Claude Code 所使用的后端 AI 模型。

请前往 cc-switch 的 GitHub 发布页面下载安装包:

根据所用操作系统 (Windows, macOS) 下载对应的安装文件,并按常规流程完成安装。

在这里插入图片描述

Windows用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Windows.msi 安装程序或 CC-Switch-v{version}-Windows-Portable.zip 可移植版本。

masos用户

brew tap farion1231/ccswitch brew install --cask cc-switch
brew upgrade --cask cc-switch

或者 下载 CC-Switch-v{version}-macOS.zip

Linux 用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Linux.deb 软件包或 CC-Switch-v{version}-Linux.AppImage

4. 第三步:获取 AI 模型的 API Key
API Key 是访问 AI 服务的凭证

API Key 是一串由 AI 服务提供商生成的唯一字符串,用于验证请求者的身份并进行计费。

以 Kimi (Moonshot) 为例,获取 API Key

配置 cc-switch 需要三项核心信息:

项目说明示例
供应商名称自定义名称,用于在 cc-switch 中识别。Kimi Moonshot
官网地址AI 服务商提供的 API 服务器地址 (Endpoint)。https://api.moonshot.cn
API Key专属访问密钥。sk-xxxxxxxxxxxxxxxxxxxx

获取步骤如下:

  1. 访问官网并注册:前往 月之暗面开放平台 并完成账户注册。
  2. 定位到 API 密钥页面:登录后,在左侧菜单栏选择 “API 密钥管理”。
  3. 创建新的 API Key:点击“+ 创建新的 Key”。系统将生成一个 Key。请立即复制并保存在安全的位置,该 Key 的完整内容只会在创建时显示一次。
5. 第四步:在 cc-switch 中配置 AI 模型

此步骤将获取到的 Kimi API 信息录入 cc-switch

  1. 打开 cc-switch 应用
  2. 点击 “添加供应商” 按钮
  3. 在弹出的窗口中,依次填入信息
    • 供应商名称:填入自定义的名称,例如 Kimi Moonshot
    • 官网地址:填入 Kimi 的 API 地址 https://api.moonshot.cn
    • API Key:粘贴已复制的密钥。
  4. 点击 “添加”

完成后,此 Kimi 配置将显示在 cc-switch 的供应商列表中。

6. 第五步:激活配置并进行验证

配置完成后,需将其激活,以使 Claude Code 工具生效。

  1. cc-switch 列表中,选中刚添加的 Kimi Moonshot 配置。
  2. 点击 “切换” 按钮。

当界面状态显示“已切换到 Kimi Moonshot”时,cc-switch 已成功修改 Claude Code 的底层配置文件。这个配置文件位于用户主目录下的 .claude/settings.json,其内容已被更新为 Kimi 的 API 地址和 Key。

7. 第六步:在实际项目中使用

所有配置已完成,现在可以在开发工作流中调用 AI。

在该文件夹内启动 Claude Code

claude 

使用终端进入目标项目文件夹。例如:

cd path/to/your/project 
8. 注意事项:理解并应对 API 频率限制

在使用 API 服务时,可能会遇到速率限制 (Rate Limit),这是一种常见的服务保护机制。

速率限制的机制

服务商会根据账户等级,对单位时间内的请求次数 (RPM)、Token 处理量 (TPM) 等指标进行限制。以 Kimi (Moonshot AI) 为例,其速率限制与账户累计充值金额挂钩:

用户等级累计充值金额并发RPM (每分钟请求数)TPM (每分钟Token数)TPD (每天Token数)
Free¥ 01332,0001,500,000
Tier1¥ 5050200128,00010,000,000
Tier2¥ 100100500128,00020,000,000

Read more

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置)

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置) 如果你在本地运行大模型,比如用Ollama部署了Qwen、Llama或者DeepSeek,可能会发现一个尴尬的问题:模型的知识截止日期是固定的,它不知道今天股市涨跌,不清楚最新的科技新闻,甚至不知道明天是什么节日。这种“信息孤岛”的感觉,让本地大模型的实用性大打折扣。 我最初搭建OpenWebUI环境时,也遇到了这个痛点。看着模型一本正经地分析过时的数据,那种无力感让我开始寻找解决方案。市面上有不少联网搜索方案,但要么配置复杂,要么对国内网络环境不友好。经过几周的折腾和测试,我发现SearXNG这个开源元搜索引擎,配合OpenWebUI的联网搜索功能,是目前最稳定、最灵活的方案之一。 更重要的是,通过合理配置SearXNG,我们可以让本地大模型直接调用百度、360等国内搜索引擎,获取符合中文用户习惯的实时信息。这不仅仅是技术上的连接,更是让本地AI真正“接地气”的关键一步。下面我就把自己踩过的坑、验证过的配置,以及实际效果对比,毫无保留地分享给你。 1. 为什么需要SearXN

微信网页版完全解决方案:wechat-need-web插件让浏览器聊微信不再受限

微信网页版完全解决方案:wechat-need-web插件让浏览器聊微信不再受限 【免费下载链接】wechat-need-web让微信网页版可用 / Allow the use of WeChat via webpage access 项目地址: https://gitcode.com/gh_mirrors/we/wechat-need-web 你是否遇到过微信网页版无法访问的问题?wechat-need-web插件正是为解决这一痛点而生,它能让你在Chrome、Edge和Firefox浏览器中顺畅使用微信网页版,无需安装臃肿的客户端,轻松实现浏览器内的微信沟通。 为什么微信网页版访问总是失败? 很多用户反馈,直接访问微信网页版时经常遇到"无法登录"或"网络错误"等提示。这是因为微信对网页端访问采取了严格的验证机制,普通浏览器请求往往会被服务器拒绝。对于需要在工作电脑上使用微信的用户来说,这无疑带来了极大的不便。 wechat-need-web如何解决网页版访问难题? wechat-need-web插件通过智能技术手段,在浏览器请求中动态添加必要的验证参数,让微信服务器

搭建本地ASR系统全攻略:Fun-ASR WebUI + GPU算力部署指南

搭建本地ASR系统全攻略:Fun-ASR WebUI + GPU算力部署指南 在远程会议、智能客服和语音笔记日益普及的今天,语音转文字的需求正以前所未有的速度增长。然而,当我们把音频上传到云端识别时,是否曾想过这些声音里可能包含客户的敏感信息、内部讨论细节甚至个人隐私?更别提网络延迟带来的等待焦虑——说一句话,等三秒才出字幕,体验大打折扣。 这正是越来越多企业开始转向本地化ASR系统的原因。不依赖云服务、数据不出内网、响应更快、长期成本更低——听起来像理想方案,但实现起来真的那么难吗? 其实不然。随着 Fun-ASR 这类高性能开源语音模型的出现,加上 Fun-ASR WebUI 提供的图形化操作界面,现在只需一台配备GPU的普通服务器,就能搭建起一个接近实时、高精度的私有语音识别系统。本文将带你一步步落地这套方案,并深入解析其背后的关键技术如何协同工作,让本地语音识别不再是“实验室项目”,而是真正可用的生产力工具。 从一行命令说起:为什么这个启动脚本如此关键 我们先来看一段看似普通的启动命令: python app.py --host 0.0.0.0 --port