【AIGC】Claude Code的三大模式

Claude Code 主要有三大核心权限/执行模式(默认、自动编辑、计划),以及思考强度模式危险模式等辅助模式。

一、三大核心执行模式(权限控制)

这是最常用的三种模式,控制 Claude 对文件与命令的自动化程度,可通过 Shift+Tab 循环切换。

1. 默认模式(Normal / Manual Approval)
  • 状态栏? for shortcuts
  • 行为每次文件编辑、命令执行前都需要你手动批准(Y/N/跳过)
  • 适用:学习阶段、不熟悉的项目、重要/敏感修改、需要精细控制
  • 特点:最安全、掌控感最强,但效率较低
2. 自动编辑模式(Auto-Accept / Accept Edits)
  • 状态栏accept edits on
  • 行为自动接受所有文件读写修改,但 Shell 命令仍需手动批准
  • 适用:信任 AI 的日常开发、批量生成/修改代码、写测试、生成样板代码
  • 特点:效率高,适合重复性、低风险任务
3. 计划模式(Plan Mode)
  • 状态栏plan mode on
  • 行为只读、不执行任何修改;先分析需求 → 生成详细执行计划(含步骤、文件、命令)→ 生成 plan.md → 你审核/修改后再执行
  • 适用:复杂功能开发、架构设计、数据库迁移、生产关键文件修改、需求梳理
  • 特点:安全可控、先规划后执行、减少返工、避免误操作

二、其他辅助模式

1. 思考强度模式(Thinking Modes)

控制推理深度,可在 VS Code 插件中切换:

  • Think:基础思考
  • Think Hard:深度推理
  • Think Harder:更深度分析
  • Ultrathink:极致深度(适合架构/复杂算法)
2. 危险模式(Dangerously Skip Permissions / YOLO Mode)
  • 命令claude --dangerously-skip-permissions
  • 行为完全跳过所有权限检查,自动执行所有文件修改与命令
  • 适用:仅用于完全信任的低风险任务(如修复 lint、生成 boilerplate)
  • ⚠️ 风险:极高,可能意外破坏代码,谨慎使用
3. Fast Mode
  • 作用:调整 API 配置,加快响应速度(非换模型)
  • 适用:交互式快速迭代、实时调试、快速实验
  • 注意:中途开启会按 Fast Mode 费率重新计费上下文

三、模式切换方式

  • 快捷键Shift+Tab 循环切换(默认 → 自动编辑 → 计划 → 默认)
  • 命令/plan 直接进入计划模式
  • VS Code:在插件设置中修改 Initial Permission Mode

Read more

一文读懂 Agent、MCP、Skill:2026 年 AI 自动化核心能力组合

一文读懂 Agent、MCP、Skill:2026 年 AI 自动化核心能力组合

INTRODUCTION 你有没有过这样的经历?每天被报表、数据查询和客服回复这些重复工作填满,明明已经接入了 AI 工具,却总觉得"用不顺"。不是不同工具的调用方式五花八门,就是复杂任务仍然需要人工反复介入,时间和成本都被迅速放大。 在 AI 自动化逐步走向"可执行、可闭环"的阶段,Agent、MCP 和 Skill 这三个概念被越来越多从业者放在同一张技术地图上讨论。它们并非彼此割裂的名词,而是在实际系统中高度协同的一组能力抽象。 你可以把它们理解为一个项目团队: •Agent 是项目经理,负责理解目标、规划步骤并推动执行; •MCP 是统一接口和通信规范,确保 Agent 与外部能力之间可以标准化协作; •Skill 是被封装好的专业能力模块,负责完成具体操作。 FIGURE_01: TEAM_COLLABORATION CHAPTER_01 技术背景与核心痛点 随着大模型能力成熟,

Python AI入门:从Hello World到图像分类

Python AI入门:从Hello World到图像分类 一、Python AI的Hello World 1.1 环境搭建 首先,我们需要搭建Python AI的开发环境: # 安装PyTorch pip install torch torchvision # 安装其他依赖 pip install numpy matplotlib 1.2 第一个AI程序 让我们来编写一个最简单的AI程序 - 线性回归: import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt # 生成训练数据 x = torch.linspace(

LLama Factory使用LoRA微调Qwen

文章目录 * 1. LoRA简介 * 1.1 核心思想 * 1.2 为什么高效? * 2. LLama Factory介绍 * 2.1 环境配置 * 2.2 指令微调监督数据集格式 * 2.3 通过Web UI配置 * 2.4 使用YAML配置文件 1. LoRA简介 1.1 核心思想 LoRA是通过引入低秩矩阵来减少微调时的参数量。在预训练模型中,LoRA通过添加两个小矩阵B和A来近似原始的大矩阵W,从而减少需要更新的参数量。 eg:W:m×n, 则B:m×r,A:r×n (通常r=8~64) 训练时,输入分别与原始权重和两个低秩矩阵进行运算,共同得到最终结果,