Claude Code + cc-switch 配置指南

本指南旨在引导初次接触的用户,一步步完成 Claude Code 命令行工具 (CLI) 和 cc-switch 的安装与配置。完成配置后,用户即可在代码编辑器的终端中,通过简单的命令,调用 Kimi、GPT-4 或其他主流 AI 模型,辅助完成代码编写、解释和调试等任务。

核心结论Claude Codecc-switch 结合使用,可以显著提升编程工作的效率。

目录
  • 1. 准备工作:配置必需的 Node.js 环境
  • 2. 第一步:安装 Claude Code 命令行工具
  • 3. 第二步:安装 cc-switch 模型管理工具
  • 4. 第三步:获取 AI 模型的 API Key
  • 5. 第四步:在 cc-switch 中配置 AI 模型
  • 6. 第五步:激活配置并进行验证
  • 7. 第六步:在实际项目中使用
  • 8. 注意事项:理解并应对 API 频率限制

1. 准备工作:配置必需的 Node.js 环境

Claude Code CLI 是一个基于 Node.js 的工具,其成功安装和运行严格依赖于系统中的 Node.js 版本。

为什么必须使用较新版本的 Node.js?

Claude Code 的开发者在其包配置中明确指定了所支持的 Node.js 最低版本。如果使用低于要求的版本进行安装,包管理器 (npm) 会无法正确处理依赖关系,并抛出一系列警告,最终导致安装失败或即使安装完成也无法运行。

例如,在 Node.js v14 的环境中尝试安装,会收到如下错误日志:

npm WARN notsup Unsupported engine for @anthropic-ai/[email protected]: wanted: {"node":">=18.0.0"}(current: {"node":"14.18.3","npm":"6.14.15"})npm WARN notsup Not compatible with your version of node/npm: @anthropic-ai/[email protected] 

这行日志清晰地指出:claude-code要求 (wanted) Node.js 版本大于等于 18.0.0,但当前环境 (current) 的版本是 14.18.3,因此不兼容。忽略这些警告将导致后续使用时出现问题。

检查并安装正确的 Node.js 版本
  1. 确认版本要求:请确保输出的版本号为 v18.0.0 或更高
  2. 安装与管理 (推荐使用 nvm)如果版本不符,强烈建议使用 nvm (Node Version Manager) 来进行安装和版本管理。nvm 可以在同一台电脑上维护多个 Node.js 版本并轻松切换。完成切换后,再次运行 node -v 进行确认。
    • 安装 nvm
      • macOS / Linux: 参考 nvm-sh/nvm GitHub 官方指南。
      • Windows: 使用 nvm-windows(适配Windows的nvm版本),具体步骤如下(Node.js自带npm包管理器,旧版本Node/npm会与nvm管理的版本冲突,需先彻底清理):
        1. 备份npm自定义配置(可选):按 Win + R 输入 %AppData%\npm 打开文件夹,若存在 etc\npmrc 文件,复制到桌面备份;无该文件则直接跳过。
        2. 卸载旧版Node.js:打开「控制面板」→「程序和功能」,找到所有名称包含「Node.js」的程序,右键选择「卸载」并按提示完成。
        3. 删除Node/npm残留文件夹
          • Win + R 输入 C:\Program Files\nodejs(或 C:\Program Files (x86)\nodejs),若文件夹存在则删除;
          • 再次按 Win + R 分别输入 %AppData%\npm%AppData%\npm-cache,若文件夹存在则删除。
        4. 下载nvm-windows 1.2.2安装包:打开 nvm-windows 1.2.2 发布页,下拉到「Assets」(资源)区域,点击 nvm-setup.exe 下载(新手推荐此一键安装包)。
        5. 安装nvm-windows
          • 找到下载的 nvm-setup.exe 双击打开,弹出「用户账户控制」时点击「是」;
          • 勾选「I accept the agreement」→ 点击「Next」;
          • 保留默认安装路径(如 C:\Users\你的用户名\AppData\Roaming\nvm)→ 点击「Next」;
          • 保留Node.js符号链接默认路径(C:\Program Files\nodejs)→ 点击「Next」;
          • 点击「Install」开始安装,进度条完成后点击「Finish」。
        6. 验证安装成功:以管理员身份打开CMD/PowerShell,输入 nvm version,若输出 1.2.2 则安装成功。

使用 nvm 安装并切换到 Node.js 18

# 安装 Node.js v18 的最新稳定版 nvm install18# 将当前会话的 Node.js 版本切换为 v18 nvm use 18

检查当前版本:打开终端(在 Windows 上是 CMDPowerShell,在 Mac 上是 Terminal),输入以下命令:

node -v 
2. 第一步:安装 Claude Code 命令行工具

Claude Code 是一个命令行界面 (CLI) 工具,用于在终端内与 AI 进行交互。

在终端中运行以下命令进行安装:

npminstall -g @anthropic-ai/claude-code 
  • npm 是 Node.js 的包管理器,该命令将从 npm 仓库下载并安装 claude-code
  • -g 参数代表“全局安装”,确保 claude 命令可以在系统的任何路径下被调用。

安装完成后,输入 claude 并回车,若显示 Claude Code 的欢迎界面,则表示安装成功。

3. 第二步:安装 cc-switch 模型管理工具

cc-switch 是一个图形化桌面应用,其核心功能是帮助用户管理并切换 Claude Code 所使用的后端 AI 模型。

请前往 cc-switch 的 GitHub 发布页面下载安装包:

根据所用操作系统 (Windows, macOS) 下载对应的安装文件,并按常规流程完成安装。

在这里插入图片描述

Windows用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Windows.msi 安装程序或 CC-Switch-v{version}-Windows-Portable.zip 可移植版本。

masos用户

brew tap farion1231/ccswitch brew install --cask cc-switch
brew upgrade --cask cc-switch

或者 下载 CC-Switch-v{version}-macOS.zip

Linux 用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Linux.deb 软件包或 CC-Switch-v{version}-Linux.AppImage

4. 第三步:获取 AI 模型的 API Key
API Key 是访问 AI 服务的凭证

API Key 是一串由 AI 服务提供商生成的唯一字符串,用于验证请求者的身份并进行计费。

以 Kimi (Moonshot) 为例,获取 API Key

配置 cc-switch 需要三项核心信息:

项目说明示例
供应商名称自定义名称,用于在 cc-switch 中识别。Kimi Moonshot
官网地址AI 服务商提供的 API 服务器地址 (Endpoint)。https://api.moonshot.cn
API Key专属访问密钥。sk-xxxxxxxxxxxxxxxxxxxx

获取步骤如下:

  1. 访问官网并注册:前往 月之暗面开放平台 并完成账户注册。
  2. 定位到 API 密钥页面:登录后,在左侧菜单栏选择 “API 密钥管理”。
  3. 创建新的 API Key:点击“+ 创建新的 Key”。系统将生成一个 Key。请立即复制并保存在安全的位置,该 Key 的完整内容只会在创建时显示一次。
5. 第四步:在 cc-switch 中配置 AI 模型

此步骤将获取到的 Kimi API 信息录入 cc-switch

  1. 打开 cc-switch 应用
  2. 点击 “添加供应商” 按钮
  3. 在弹出的窗口中,依次填入信息
    • 供应商名称:填入自定义的名称,例如 Kimi Moonshot
    • 官网地址:填入 Kimi 的 API 地址 https://api.moonshot.cn
    • API Key:粘贴已复制的密钥。
  4. 点击 “添加”

完成后,此 Kimi 配置将显示在 cc-switch 的供应商列表中。

6. 第五步:激活配置并进行验证

配置完成后,需将其激活,以使 Claude Code 工具生效。

  1. cc-switch 列表中,选中刚添加的 Kimi Moonshot 配置。
  2. 点击 “切换” 按钮。

当界面状态显示“已切换到 Kimi Moonshot”时,cc-switch 已成功修改 Claude Code 的底层配置文件。这个配置文件位于用户主目录下的 .claude/settings.json,其内容已被更新为 Kimi 的 API 地址和 Key。

7. 第六步:在实际项目中使用

所有配置已完成,现在可以在开发工作流中调用 AI。

在该文件夹内启动 Claude Code

claude 

使用终端进入目标项目文件夹。例如:

cd path/to/your/project 
8. 注意事项:理解并应对 API 频率限制

在使用 API 服务时,可能会遇到速率限制 (Rate Limit),这是一种常见的服务保护机制。

速率限制的机制

服务商会根据账户等级,对单位时间内的请求次数 (RPM)、Token 处理量 (TPM) 等指标进行限制。以 Kimi (Moonshot AI) 为例,其速率限制与账户累计充值金额挂钩:

用户等级累计充值金额并发RPM (每分钟请求数)TPM (每分钟Token数)TPD (每天Token数)
Free¥ 01332,0001,500,000
Tier1¥ 5050200128,00010,000,000
Tier2¥ 100100500128,00020,000,000

Read more

零代码AI革命:万字实战指南,用Dify轻松构建企业级智能知识库

零代码AI革命:万字实战指南,用Dify轻松构建企业级智能知识库

前言 在当今这个信息爆炸的时代,数据已成为企业和个人的核心资产。然而,如何从浩如烟海的文档、报告、手册和笔记中,高效、精准地提取所需信息,已成为一个普遍存在的痛点。传统的关键词搜索,面对复杂和口语化的查询时常常显得力不从心,无法真正理解用户的深层意图。我们迫切需要一种更智能、更接近自然语言交互的解决方案。 当下普遍存在的几大痛点: 1. 知识孤岛与检索困境: 企业内部的知识散落在不同的系统(如 Confluence, SharePoint, 本地文件夹)中,形成一个个信息孤岛。员工,尤其是新员工,为了找到一个问题的答案,可能需要在多个平台之间来回切换,耗费大量时间,效率低下。 2. AI 技术应用门槛高昂: 大语言模型(LLM)的出现为解决上述问题带来了曙光。但对于大多数非 AI 专业的开发者和中小企业而言,从零开始部署、微调、管理一个大模型,并将其封装成可用的应用,涉及到复杂的后端开发、算法知识、GPU 资源管理和高昂的运维成本,是一项几乎不可能完成的任务。 3.

【AI日报】每日AI最新消息2026-03-05

【AI日报】每日AI最新消息2026-03-05

最新 AI 新闻(2026-03-04 ~ 2026-03-05) 序号标题重要信息1阿里千问“灵魂人物”林俊旸突然卸任,核心团队现罕见人事震荡3 月 4 日凌晨,阿里 Qwen(通义千问)技术负责人林俊旸在社交平台发文“我卸任了,再见了亲爱的 Qwen”,后训练负责人郁博文、核心成员李凯新同日确认离职。报道指出,变动与通义实验室计划将千问团队从“垂直整合”拆分为水平分工团队、管理权被压缩有关,被视为阿里大模型路线的一次重要人事信号。2OpenAI 发布 GPT 5.3 Instant,谷歌同日推出 Gemini 3.1 Flash Lite 模型3 月 4 日,OpenAI 正式发布 GPT 5.3 Instant,重点优化网络搜索与对话体验,

【前沿解析】2026年3月29日:AI推理效率双重突破——谷歌TurboQuant内存压缩与RWKV-6开源重构大模型部署范式

当百万级上下文成为AI应用标配,当边缘设备渴求智能部署,内存墙与算力瓶颈正成为制约AI规模化落地的最后枷锁。2026年3月29日,两大技术突破同步到来:谷歌研究院发布TurboQuant算法,将KV缓存内存占用压缩6倍、速度提升8倍;RWKV开源基金会宣布RWKV-6 1.6B模型正式开源,线性复杂度架构打破Transformer二次方魔咒。这不仅是技术的双重突破,更是AI从实验室走向产业、从云端下沉到终端的范式革命。 引言:效率革命的双引擎——内存压缩与架构创新 2026年3月,AI行业迎来了标志性的效率拐点。在算力增长曲线趋缓、摩尔定律失效的背景下,通过算法优化提升现有硬件效能成为唯一可行路径。谷歌TurboQuant与RWKV-6开源,恰如效率革命的双引擎,从两个维度同时突破传统瓶颈: * TurboQuant:针对大模型推理最核心的内存瓶颈——KV缓存,通过PolarQuant坐标变换与QJL误差校正,实现3-bit量化下的零精度损失,实测内存占用降低83%、注意力计算速度提升8倍 * RWKV-6:基于线性复杂度的时间序列混合架构,在保持强大序列建模能

用闲置Mac Mini部署OpenClaw(moltbot)实现你的专属金融AI分析师

用闲置Mac Mini部署OpenClaw(moltbot)实现你的专属金融AI分析师

在数字时代,每个人都需要一个24小时在线的智能工作伙伴。如果你恰好有一台闲置的Mac Mini,只需几个小时,就能将它变身为一个具备专业金融分析能力的AI助手。本文将手把手带你完成整个部署过程,让你拥有一个能对话、能分析、能监控的私人数字员工。 一、为什么选择Mac Mini+OpenClaw? 核心优势对比 传统方式Mac Mini+OpenClaw方案需要购买云服务器,持续付费利用闲置硬件,零额外硬件成本数据存储在第三方平台数据完全私有,存储在本地功能固定,难以定制可通过技能商店无限扩展功能需要专业技术维护一次性部署,长期稳定运行 特别是对于金融从业者、投资者以及对市场信息敏感的用户,这个方案能提供: * 7×24小时市场监控与预警 * 自然语言驱动的专业分析 * 完全私有的数据环境 * 可扩展的金融工具集成 二、完整部署流程图 graph A[开始部署] --> B{选择设备方案}; B --> C[闲置Mac Mini]; B --> D[