Claude Code 入门实战 2:多模型配置适配国内主流 AI 厂商

Claude Code 入门实战 2:多模型配置适配国内主流 AI 厂商

突破官方模型限制,灵活接入 DeepSeek、通义千问、智谱 GLM,让智能编码工具真正本地化

前言

Claude Code 作为一款强大的智能编码助手,其核心能力依赖于底层大语言模型的推理能力。然而,Anthropic 官方 Claude 模型在国内的 API 访问体验并不理想,存在延迟高、稳定性差等问题。为了解决这一痛点,Claude Code 提供了灵活的模型配置体系,支持开发者无缝切换底层模型。

本文将系统梳理 Claude Code 的模型配置逻辑,从内置模型的基础用法到如何适配 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等国内主流 AI 模型,帮助你解锁 Claude Code 的全场景使用能力,让智能编码真正落地国内开发环境。

1. Claude Code 模型体系概览

Claude Code 对模型的支持采用分层设计,既提供了便捷的「模型别名」满足日常快速切换,也支持精准的「模型名称」用于固定版本或适配第三方服务商。

1.1 模型标识:别名与精准名称

Claude Code 中 model 字段的配置支持两类核心标识:

  • 模型别名:Anthropic 官方预设的快捷标识,无需记忆复杂的版本号,始终指向对应系列的最新版本,适合日常开发快速切换。
模型别名核心行为与适用场景
default基于账户类型自动匹配推荐模型,平衡性能与成本
sonnet最新 Sonnet 系列(当前 Sonnet 4.5),兼顾推理精度与响应速度,适合日常业务代码编写
opus最新 Opus 系列(当前 Opus 4.6),顶尖复杂推理能力,适合架构设计、疑难 Bug 定位
haikuHaiku 系列,响应极快、资源消耗低,适合简单代码补全、注释生成
sonnet[1m]Sonnet 模型 + 100 万 token 上下文窗口,适配长代码库分析
opusplan混合模式:计划阶段用 Opus,执行阶段用 Sonnet,适合复杂项目分步开发
  • 精准模型名称/标识:针对不同服务商的专属命名规则,例如 Anthropic API 需填写官方完整模型名称(如 claude-opus-4-5-20251101),AWS Bedrock 需填写推理配置文件 ARN,Google Vertex 需填写版本名称等。适用于固定版本或适配第三方服务商。

1.2 模型配置优先级

Claude Code 支持多维度配置模型,优先级从高到低依次为:

  1. 会话内临时切换:输入 /model <别名|精准名称> 实时切换,无需重启工具,适合单次任务调整。
  2. 启动时指定:通过 claude --model <别名|精准名称> 启动工具,本次会话默认使用该模型。
  3. 环境变量配置:设置 ANTHROPIC_MODEL=<别名|精准名称>,全局生效(需重启终端)。
  4. 配置文件永久生效:在 ~/.claude/settings.json(macOS/Linux)中添加 model 字段:
{ "permissions": {}, "model": "opus" }

1.3 模型状态校验与环境变量控制

  • 查看当前模型
    • 终端状态行(若配置)直接显示;
    • 输入 /status 命令,可查看模型信息、账户权限、API 连接状态等。
  • 自定义别名映射:通过环境变量固定别名对应的精准模型,避免别名自动更新带来的不确定性。
环境变量作用
ANTHROPIC_DEFAULT_OPUS_MODEL自定义 opus 别名对应的模型,或 opusplan 计划阶段所用模型
ANTHROPIC_DEFAULT_SONNET_MODEL自定义 sonnet 别名对应的模型,或 opusplan 执行阶段所用模型
ANTHROPIC_DEFAULT_HAIKU_MODEL自定义 haiku 别名对应的模型
CLAUDE_CODE_SUBAGENT_MODEL自定义子代理功能使用的模型

注意:旧版环境变量 ANTHROPIC_SMALL_FAST_MODEL 已弃用,统一替换为 ANTHROPIC_DEFAULT_HAIKU_MODEL

1.4 Prompt Caching 配置:性能与成本优化

Claude Code 默认启用 Prompt Caching,通过缓存重复提示词降低 API 调用成本、提升响应速度。可通过环境变量精细控制:

环境变量功能
DISABLE_PROMPT_CACHING=1全局禁用所有模型的 Prompt Caching
DISABLE_PROMPT_CACHING_HAIKU=1仅禁用 Haiku 模型的 Prompt Caching
DISABLE_PROMPT_CACHING_SONNET=1仅禁用 Sonnet 模型的 Prompt Caching
DISABLE_PROMPT_CACHING_OPUS=1仅禁用 Opus 模型的 Prompt Caching

全局禁用优先级高于模型专属禁用。

2. 国内主流 AI 模型接入实战

针对国内开发者的需求,以下梳理 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等主流模型的接入流程,核心思路均为 「替换 API 地址 + 配置专属密钥 + 适配模型名称」

2.1 主流模型基础信息

厂商/品牌核心优势官方模型名称示例API 密钥申请入口
DeepSeek(深度求索)国产高性价比,编码适配性优deepseek-chatdeepseek-reasonerDeepSeek 平台
阿里百炼(通义千问)阿里云生态,多模型兼容qwen-maxqwen-turboqwen3-coder-plus阿里百炼控制台
智谱 GLM(智谱清言)清华系技术,编码场景优化GLM-4GLM-3-Turbo智谱开放平台
MiniMax多模态能力,音图文混合abab5.5-chatabab6.0-chatMiniMax 平台

接入前置步骤:所有模型均需完成「注册账号 → 实名认证 → 创建 API Key」,具体流程参考各平台官方指引。

2.2 DeepSeek 模型接入实战

DeepSeek 提供了 Anthropic API 兼容接口,可直接通过环境变量配置接入。

临时配置(当前终端)

# 替换为你的 DeepSeek API Key export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=${DEEPSEEK_API_KEY} # 设置超时时间(建议 10 分钟以上) export API_TIMEOUT_MS=600000 # 指定使用的 DeepSeek 模型 export ANTHROPIC_MODEL=deepseek-chat export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat # 禁用非必要流量,提升国内访问稳定性 export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

永久配置:将上述变量写入 ~/.bashrc 或 ~/.zshrc,然后执行 source ~/.bashrc 生效。

验证接入:进入项目目录执行 claude,输入 /status 查看模型状态,或通过 /model deepseek-chat 手动切换模型。

2.3 阿里百炼(通义千问)模型接入实战

通义千问系列同样支持 Anthropic API 兼容接口,推荐通过配置文件永久生效。

macOS/Linux 配置

mkdir -p ~/.claude vim ~/.claude/settings.json

写入以下内容(替换 YOUR_API_KEY):

{ "env": { "ANTHROPIC_AUTH_TOKEN": "YOUR_API_KEY", "ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic", "ANTHROPIC_MODEL": "qwen3-coder-plus" } }

重启终端,执行 claude,输入 /model qwen3-coder-plus 确认切换。

Windows 配置(CMD 永久生效)

setx ANTHROPIC_AUTH_TOKEN "YOUR_API_KEY" setx ANTHROPIC_BASE_URL "https://coding.dashscope.aliyuncs.com/apps/anthropic" setx ANTHROPIC_MODEL "qwen3-coder-plus"

PowerShell 配置

[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "YOUR_API_KEY", [EnvironmentVariableTarget]::User) [Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "https://coding.dashscope.aliyuncs.com/apps/anthropic", [EnvironmentVariableTarget]::User) [Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "qwen3-coder-plus", [EnvironmentVariableTarget]::User)

验证环境变量

# CMD echo %ANTHROPIC_AUTH_TOKEN% echo %ANTHROPIC_BASE_URL% echo %ANTHROPIC_MODEL% # PowerShell echo $env:ANTHROPIC_AUTH_TOKEN echo $env:ANTHROPIC_BASE_URL echo $env:ANTHROPIC_MODEL

2.4 智谱 GLM 模型接入实战

智谱 GLM 同样提供了 Anthropic API 兼容端点。

获取 API Key:登录 智谱 GLM Coding Plan 页面 完成实名认证,创建 API Key。

编辑配置文件

vim ~/.claude/settings.json

写入配置(替换 your_zhipu_api_key):

{ "env": { "ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key", "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic", "API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1 } }

验证接入:启动 Claude Code,输入 /status 查看模型状态;若未自动生效,可手动输入 /model GLM-4 切换。

3. 注意事项与最佳实践

  1. 超时配置优化:国内网络环境下建议将 API_TIMEOUT_MS 设置为 300000(5 分钟)及以上,避免因网络波动触发超时中断。
  2. 密钥安全管理:切勿将 API Key 直接硬编码在代码或配置文件中并提交至版本库。推荐通过环境变量或加密的配置文件管理敏感信息。
  3. 模型适配性验证:不同模型对编码场景的适配性存在差异。例如 DeepSeek 适合轻量化编码,通义千问 qwen3-coder-plus 更适合工程化开发,建议根据实际任务选择。
  4. 缓存策略调整:若遇到「提示词更新但模型返回旧结果」的问题,可临时禁用 Prompt Caching(设置 DISABLE_PROMPT_CACHING=1)进行调试,完成后恢复默认配置以降低成本。
  5. 多模型切换技巧:通过 claude --model <别名> 启动或会话内 /model 命令可以快速切换不同模型,方便对比不同厂商的生成效果。

结语

通过 Claude Code 灵活的模型配置体系,开发者可以轻松将底层模型替换为国内主流 AI 厂商的模型,既解决了官方模型访问不畅的问题,又能根据具体任务选择最合适的模型。掌握这些配置技巧,你将能够最大化发挥 Claude Code 的智能编码价值,让 AI 真正成为开发流程中可靠的伙伴。

Read more

昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

背景 最近几年,AI 大模型火得一塌糊涂,特别是像 Llama 这样的开源模型,几乎成了每个技术团队都在讨论的热点。不过,这些"巨无霸"模型虽然能力超强,但对硬件的要求也高得吓人。这时候,华为的昇腾 NPU 就派上用场了。 说实话,昇腾 NPU 在 AI 计算这块确实有两把刷子。它专门为神经网络计算设计,不仅算力强劲,功耗控制得也不错,最关键的是灵活性很好,可以根据不同场景进行裁剪。所以,用它来跑大模型推理,理论上应该是个不错的选择。 为什么偏偏选了 Llama 来测试? 说到 Llama,这玩意儿现在可是开源界的"网红"。Meta 把它完全开源出来,社区生态搞得风生水起,各种优化和适配层出不穷。 其实选择 Llama 做测试,主要有这么几个考虑:

Ascend Whisper 高效部署实战:从模型优化到生产环境避坑指南

快速体验 在开始今天关于 Ascend Whisper 高效部署实战:从模型优化到生产环境避坑指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Ascend Whisper 高效部署实战:从模型优化到生产环境避坑指南 背景痛点分析 语音识别模型在昇腾硬件上的部署常常面临几个关键挑战: * 计算图优化不足:原生PyTorch模型直接转换后,存在大量冗余计算节点,影响NPU执行效率

论文AI率多少算正常?各高校AIGC检测标准汇总解读

论文AI率多少算正常?各高校AIGC检测标准汇总解读

论文AI率多少算正常?各高校AIGC检测标准汇总解读 “我的论文AI率23%,能过吗?” 这可能是2026年毕业季被问得最多的一句话。问题在于,没有一个放之四海而皆准的答案——你在清华和在地方院校面临的标准完全不同,本科和硕士的要求也不一样,甚至同一所学校不同学院之间都可能存在差异。 本文将尽可能完整地梳理2026年各高校的AIGC检测标准,帮你准确判断自己的论文处于什么位置,以及需要达到什么水平。 一、先搞清楚一个前提:检测平台的差异 在讨论"多少算正常"之前,必须先明确一个经常被忽略的问题:不同检测平台对同一篇论文给出的AI率可能相差很大。 目前国内高校采用的AIGC检测平台主要有四家:知网、维普、万方、大雅。其中知网占据主导地位,大部分985/211院校和相当比例的普通本科院校都采用知网检测。 同一篇论文在不同平台上的检测结果可能差距悬殊。一篇文章在知网检测显示AI率28%,在维普上可能显示42%,在万方上又可能只有15%。这种差异源于各平台采用的检测算法和训练数据不同。 所以当你对照标准评估自己的论文时,一定要搞清楚你的学校用的是哪个平台,然后在对应平台上做检

AR交互设计新范式:虚拟按钮与手势控制在教育类应用中的创新融合

AR交互设计新范式:虚拟按钮与手势控制在教育类应用中的创新融合 当孩子们第一次用手指在空中旋转恐龙模型时,他们的眼睛会发光——这正是教育科技产品最珍贵的时刻。作为AR内容创作者,我们正站在交互设计革命的起点:虚拟按钮的精确性与手势控制的自然性正在教育场景中产生奇妙的化学反应。这种融合不仅改变了知识传递的方式,更重塑了学习体验的本质。 1. 教育场景下的AR交互设计原则 儿童教育类AR应用的特殊性在于,它需要同时满足两个看似矛盾的需求:交互必须足够简单直观,让孩子无需指导就能上手;同时又要具备足够的精确性,确保教学目标的准确达成。这就像设计一个既能让三岁孩童轻松玩耍,又能让专业钢琴家演奏交响乐的键盘。 认知负荷理论告诉我们,儿童的注意力资源有限。根据剑桥大学的研究,5-8岁儿童的平均专注时长仅为12-18分钟。因此,我们的交互设计必须遵循以下黄金法则: * 即时反馈原则:任何操作都应在300ms内给予明确响应 * 容错设计:错误操作不应导致系统崩溃或流程中断 * 多通道反馈:同时激活视觉、听觉和触觉反馈通道 * 渐进式复杂度:交互难度随学习进度动态调整 芝加哥儿童博