@anthropic-ai/claude-code 快速上手指南

本文重点:快速启动项目、配置 API、常用操作,让开发者立即开始实战,命令清单放在最后参考。


一、安装及配置秘钥

说明:Claude Code 依赖 gitnpm,这里不赘述基础安装。

1.1 安装 Claude Code

升级或首次安装:

npminstall-g @anthropic-ai/claude-code 
⚠️ 不同版本支持的命令略有差异,最终以 /help 输出为准。

1.2 配置 API

配置文件路径:

系统路径
WindowsC:\Users\用户名\.config\claude-code\config.json
Linux/Mac~/.config/claude-code/config.json

参考:https://platform.minimaxi.com/docs/guides/text-ai-coding-tools#手动编辑配置文件

示例:使用 minMax 并设置自己的 ANTHROPIC_AUTH_TOKEN

示例图片


示例图片
⚡ 国内支持模型:DeepSeekGLM-4
AI 推荐:KimiQwen-Max,不同模型训练数据、价格和擅长领域不同,可按实际需求选择。

二、实际使用流程(优先突出)

安装完成后,直接启动 CLI 进入项目实战:

# 推荐客户端 Windows Terminal: 1)Windows 商店安装 2)GitHub 下载压缩包直接使用 旧版 Win10 可使用 PowerShell 7 (x64) 

进入交互模式后:

# 初始化项目 claude /init # 生成 CLAUDE.md,建立项目上下文 # 先加一条默认:全局规范 把用中文回答,加入到全局规范,之后回答全用中文 # 让AI 干活 直接提出问题 # 经常干的 or 比较好的样例; 请把 ** 加到全局规范 请根据 ** 生成全局规范 # 规范太多,超过5k 行 请 规整 和 压缩全局规范 CLAUDE.md (不删减内容) # 有时,经常干的会幻觉 请把 ** 加到CLAUDE.md or 请调整全局规范 

日常开发操作示例

# 查看当前状态 /status # 查看上下文使用情况 /context # 分析项目代码(可指定文件或模块) /review src/main/java # 或用中文提问 请分析 xx 方法; 分析 xx 类;简化 ** 方法等 # 出现报错时 请解决 粘贴错误 → Ctrl + V → 让 AI 分析 # 页面或样式调整 请根据效果图调整某页面 粘贴图片 → Alt + V → AI 分析 # 提具体需求 重构某某 Service 为构造器注入 # 上下文过大或讨论方向改变 /clear 
⚡ 提示:首次进入项目必须 /initCLI 支持 / 命令或直接自然语言提问常用操作可记录在 CLAUDE.md 作为规范

三、AI 审查代码示例

直接粘贴到 CLI:

你是资深Java后端架构师,具备生产系统代码审查经验(Spring Boot / JPA / 微服务)。请审查以下代码变更,并判断是否可以合并到 master 分支。 【重点专项检查】 1. 稳定性 是否存在空指针、边界条件问题 是否可能引发运行时异常 是否影响已有功能或接口兼容性 2. 数据与事务安全 是否存在 SQL 注入风险 是否正确使用事务(遗漏、传播、回滚问题) 是否存在数据不一致风险 3. 数据访问与性能 是否存在 N+1 查询问题 查询是否可能走全表扫描或缺少索引 是否存在重复查询、不必要循环或高复杂度逻辑 4. 并发与线程安全 是否存在并发问题(共享变量、锁、竞态条件) 是否有线程安全隐患 5. 安全性 是否缺少权限校验 是否可能导致数据越权访问或敏感信息泄露 6. 代码质量 是否存在明显设计问题或代码异味 可读性、可维护性是否合理 是否存在重复逻辑或不合理抽象 【输出格式(必须严格遵守)】 【结论】 (可合并 / 不建议合并) 【风险等级】 (low / medium / high) 【阻塞问题(必须修复)】 xxx 【建议优化(可选)】 xxx 【说明】 如果存在可能影响生产稳定性的风险,必须判定为“不建议合并” 不要给泛泛建议,只输出关键问题 

有时ai 会提问你,git仓库在哪

自行识别 xx 路径的git 仓库,并加入到全局规范 

四、命令清单(参考用,全部可 /help 查看)

4.1 会话与状态管理

命令作用说明
/help列出所有命令
/status查看会话整体状态
/context上下文窗口、已用/剩余 tokens
/usage查看 token 使用明细
/model查看当前模型
/model <name>切换模型
/clear清空对话上下文
/exit / /quit退出 CLI

4.2 项目初始化与结构分析

命令作用说明
/init扫描目录建立项目上下文
/review审查项目代码并给出建议
/review <path>审查指定目录/文件
/plan <需求>生成实现计划
/explain解释项目或代码结构
/diff分析 Git 变更
/fix尝试修复发现问题(部分版本支持)

4.3 文件上下文控制

命令作用说明
/files查看已加载文件
/add <file>加入文件
/add <dir>加入目录
/drop <file>移除文件
/drop all移除全部文件上下文

4.4 对话行为控制(高级)

命令作用说明
/system <prompt>修改系统提示词
/temperature <0-1>调整回答发散度(部分版本支持)
/save <file>保存当前会话到文件
/load <file>载入历史会话

4.5 实战常用九大命令

/help /status /context /usage /model /init /review /clear /diff 

Read more

2025年必备!5款免费AIGC检测工具推荐,论文查重一键搞定

2025年必备!5款免费AIGC检测工具推荐,论文查重一键搞定

人工智能技术正以迅猛之势发展,AIGC(人工智能生成内容)在各个领域的应用也日益广泛。然而AIGC内容的检测与查重问题也随之而来。对于学术研究者而言,确保论文的原创性、避免AIGC内容的滥用极为重要。今日,为大家推荐5款免费的AIGC检测工具,助力你在2025年轻松完成论文查重。 1. 学术云端AI写作助手 工具简介 学术云端是一款聚焦于论文领域的神级工具,它每天都能为用户提供无限次免费的AIGC率检测服务。该工具不仅可以高效检测论文中的AIGC内容,还具备一系列降重和降低AIGC率的实用功能。 主要功能 * 无限次免费改稿:用户下单后都能无限次AI改稿,无需担忧次数受限的问题。 * 专业降重建议:学术云端会提供详细的降重建议,帮助用户优化论文的结构。 * 智能同义词替换:它能够自动识别并替换高重复率的词汇,以此提升论文的原创性。 使用体验 学术云端的操作界面简洁易懂,用户只需上传论文文档,系统便会自动进行AIGC率检测,随后生成详细的检测报告。此外学术云端还配备了丰富的降重工

全网最靠谱有效!!!解决新机型 Copilot 键替代右 Ctrl 键问题

全网最靠谱有效!!!解决新机型 Copilot 键替代右 Ctrl 键问题

引路者👇: 前言 一、先搞懂:Copilot 键原本是干嘛的? 二、核心解决方案:用微软官方工具 PowerToys 映射 步骤 1:下载安装 PowerToys 步骤 2:开启 “键盘管理器” 功能 步骤 3:添加 “快捷键映射”(关键步骤) 步骤 4:测试功能是否生效 三、注意事项:确保映射长期生效 四、常见问题排查(避坑指南) 五、总结 前言         作为一名长期依赖右 Ctrl 键进行操作的程序员 / 办公用户,今年换了新的拯救者笔记本后,发现键盘上原本的右 Ctrl 键被一个陌生的 “Copilot 键” 取代了。日常用 “Ctrl+

区块链是什么:Web3 底层核心的分布式信任技术

区块链是什么:Web3 底层核心的分布式信任技术

区块链是什么:Web3 底层核心的分布式信任技术 区块链是基于密码学、以区块串联形式存储数据的分布式账本技术,核心是通过全网多节点的共同记录与验证,实现数据的去中心化存储、不可篡改与透明可追溯,无需依赖任何中心化机构做信任背书,就能让陌生主体之间达成可信的价值传递与数据交互。它是支撑 Web3、智能合约、NFT、DAO 等生态的底层技术基石,也是解决传统互联网 “信任成本高、数据垄断、价值流转受平台限制” 的核心方案。 简单来说,区块链可以类比成一本全网公开、多人共同记录、无法篡改的共享账本:传统账本由一个中心(如银行、平台)单独记录,记录者可随意修改;而区块链的账本由网络中所有节点(参与者)同步记录,每一笔新数据都会生成一个新 “区块”,并加密链接到上一个区块,任何人想修改其中一条记录,都需要同时篡改全网所有节点的账本,技术成本极高且几乎不可能实现,这也是其 “可信” 的核心来源。 一、区块链的五大核心特征(区别于传统技术的关键) 这五大特征是区块链实现 “去中心化信任” 的核心,也是其能成为价值互联网底层的关键属性: 1.

论文阅读:Training language models to follow instructions with human feedback

Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. Advances in neural information processing systems, 2022, 35: 27730-27744. 引言 引言首先指出了当前大型语言模型(LMs)存在的一个核心问题:模型规模变大并不意味着它们能更好地遵循用户的意图 。具体而言,大型模型经常生成不真实、有毒或对用户毫无帮助的输出,这是因为语言模型的训练目标(预测网页上的下一个 token)与用户希望的目标(“有用且安全地遵循指令”)是错位的。作者的目标是让模型在“有用性”(Helpful)、“诚实性”(Honest)和“无害性”(Harmless)这三个方面与用户意图对齐。