AI 小白逆袭!用 10 分钟学会 Claude Code 接入 DeepSeek-V3.2

AI 小白逆袭!用 10 分钟学会 Claude Code 接入 DeepSeek-V3.2

DeepSeek发布了最新的模型DeepSeek-V3.2,我们今天就让Claude Code 接入DeepSeek。为了让你也能快速掌握这套流程,我特地写下这篇“从零开始、一步到位”的完整实战教程。

大家好,我是写代码的中年人!

DeepSeek发布了最新的模型DeepSeek-V3.2,我们今天就让Claude Code 接入DeepSeek。为了让你也能快速掌握这套流程,我特地写下这篇“从零开始、一步到位”的完整实战教程。无论你是程序媛还是程序员,还是刚入坑 AI 的小白,都能在这篇文章中轻松完成!

Node.js 环境安装

Claude Code 是依赖于 Node.js 环境运行的,访问 Node.js 官方网站:https://nodejs.org,推荐下载 LTS(长期支持)版本,稳定且兼容性最好。

这里需要注意:

Claude Code 运行在Node.js 18以上版本。

Node.js下载页面

请根据你的电脑系统,下载适合你的软件版本!

Claude Code安装

打开cmd界面,输入:

npm install -g @anthropic-ai/claude-code

等程序执行完成,Claude Code 即安装完成。

就是这么简单!

cmd界面输入Claude,即可进入Claude Code界面

当前界面显示的是我登陆后的Claude官网模型,我们配置完后即可显示DeepSeek模型。

请注意,我们要选择一个文件夹运行cmd,再运行Claude!如我这里的文件夹是E:\Temp\test。

这里一定要运行一次命令claude,方便后边操作。如果显示无法连接网络,我们不用管它。

购买DeepSeek API Key

打开DeepSeek官网,https://www.deepseek.com,点击右上角 API开放平台,进入开放平台后,购买并创建你的 API Key!

创建API Key

这里需要注意:API Key只显示1次,请注意复制保存!

配置Claude Code

这个步骤很简单,这里我只演示Windows电脑,我们在电脑C:\Users\你当前登录的用户名\.claude

创建一个配置文件:settings.json。

文件配置信息如下:

{ "env": { "ANTHROPIC_AUTH_TOKEN": "这里填入你的DeepSeek API Key:sk-开头", "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic", "ANTHROPIC_MODEL": "deepseek-reasoner", "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-reasoner", "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-reasoner", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-reasoner", "CLAUDE_CODE_SUBAGENT_MODEL": "deepseek-reasoner", "CLAUDE_CODE_MAX_OUTPUT_TOKENS": "32000" }, "permissions": { "allow": [], "deny": [] }, "alwaysThinkingEnabled": false }

使用Claude Code

我们再次打开claude code,如下图,显示的是DeepSeek模型。

注意:这里已经显示为DeepSeek模型!

测试模型名称

询问你是什么模型

当前已正常输出是DeepSeek模型!以下信息为DeepSeek官网说明:

deepseek-chat 和 deepseek-reasoner 都已经升级为 DeepSeek-V3.2。deepseek-chat 对应 DeepSeek-V3.2 的非思考模式,deepseek-reasoner 对应 DeepSeek-V3.2 的思考模式。

测试模型生成能力

H5生成页面

我用最简单的提示,帮我生成一个H5页面,模型完成的不错。

请注意,DeepSeek在文档中提到:

DeepSeek-V3.2 的思考模式现已支持在 Claude Code 中使用。用户可以通过将模型名称切换为 deepseek-reasoner,或在 Claude Code CLI 中按下 Tab 键来启用思考模式。但需要提醒的是,思考模式目前尚未对 Cline、RooCode 等依赖非标准工具调用方式的组件做充分适配,因此在使用这些组件时,仍建议保持在非思考模式下运行。

 如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量

Read more

【征文计划】码上分享:基于 Rokid CXR-M SDK 构建「AI远程协作助手」实战全记录

【征文计划】码上分享:基于 Rokid CXR-M SDK 构建「AI远程协作助手」实战全记录

目录 * 码上分享:基于 Rokid CXR-M SDK 构建「AI远程协作助手」实战全记录 * 一、缘起:为何要做这个应用? * 二、整体架构设计 * 2.1 功能模块划分 * 2.2 技术架构图(Mermaid) * 三、开发环境准备与 SDK 集成 * 3.1 环境配置 * 3.2 添加 Maven 仓库与依赖 * 3.3 权限声明与动态申请 * 四、核心功能实现详解 * 4.1 设备连接:蓝牙 + Wi-Fi 双通道 * 4.1.1 蓝牙连接流程 * 4.1.

人工智能:大模型高效推理与部署技术实战

人工智能:大模型高效推理与部署技术实战

人工智能:大模型高效推理与部署技术实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型推理与部署的核心技术,理解模型量化、推理加速、服务化部署的原理,能够完成开源大模型的高性能生产级部署。 💡 学习重点:精通INT4/INT8量化技术的应用,掌握vLLM等高性能推理框架的使用方法,学会搭建高并发的大模型API服务。 1.2 大模型推理部署的核心挑战 1.2.1 大模型推理的痛点分析 💡 预训练大模型通常具备数十亿甚至上百亿的参数量,直接进行推理会面临显存占用高、推理速度慢、并发能力弱三大核心问题。 * 显存占用高:以LLaMA-2-7B模型为例,FP16精度下显存占用约14GB,单张消费级显卡难以承载;而70B模型FP16精度显存占用更是超过140GB,普通硬件完全无法运行。 * 推理速度慢:自回归生成的特性导致模型需要逐token计算,单条长文本生成可能需要数十秒,无法满足实时应用需求。 * 并发能力弱:传统推理方式下,单卡同时处理的请求数极少,高并发场景下会出现严重的排队和延迟问题。 这些问题直接制约了大模型从实验室走向实际生产环境,因此高效

动手玩转AI工具(实战篇1):Qclaw的深度测评指南

摘要 全民掀起养虾热潮,但是长期以来很多人都被繁琐的配置劝退,国产厂商最近推出一系列一键养虾app。本文是对腾讯新出的Qclaw的体验,记录了其在真实 Windows 环境下的核心执行能力。测试涵盖了本地文件系统的高级操作、带有思维链(CoT)的复杂文献检索,跨端传输能力以及最核心的自主安全排雷与 Skill(插件)动态装载能力。 与传统的 ChatBot 不同,QClaw 的核心差异在于它具备对本地环境的感知与执行权限。本文所有测试均在真实环境下完成,包含完整的执行逻辑分析与遇到的 Bug 记录。 一、 测试环境说明 在进行 Agent 介入测试前,先界定基础的运行环境与预置条件: OS: Windows 10 x64 (19045) QClaw 版本: 2026.3.8 工作区路径: E:\桌面(非默认 C:\Users 路径,用以测试路径解析能力) 前置依赖:

2026 年 Claude Code 完全精通指南:让产品经理与工程师同频 5 倍提效的 AI 操作系统

2026 年 Claude Code 完全精通指南:让产品经理与工程师同频 5 倍提效的 AI 操作系统

2026 年,生成式 AI 已经从 “辅助工具” 全面进化为 “生产力操作系统”,而 Claude Code 正是这场变革的核心载体。当下的行业现状极具反差感:工程师们已经靠 Claude Code 把研发交付效率提升了 5 倍,而大量产品经理还在犹豫 “AI 到底能帮我做什么”,这种认知差,让产品经理反而成了团队提效的最大瓶颈。 很多人对 Claude Code 的认知,还停留在 “一个写代码的 AI 工具”,但事实上,它早已突破了代码场景的边界,把 AI 从一个你需要反复提问的聊天助手,变成了一个能横跨你整个工作流、自主执行、深度协同的 “全能团队队友”。无论是工程师的研发全流程,还是产品经理的需求分析、PRD 撰写、项目管理、团队协同,Claude Code 都能实现端到端的效率重构。