cann-recipes-train 仓库深度解读:昇腾平台下 DeepSeek-R1 与 Qwen2.5 强化学习训练优化实践

cann-recipes-train 仓库深度解读:昇腾平台下 DeepSeek-R1 与 Qwen2.5 强化学习训练优化实践

cann-recipes-train 仓库深度解读:昇腾平台下 DeepSeek-R1 与 Qwen2.5 强化学习训练优化实践

前言

自 DeepSeek-R1 发布以来,大模型的强化学习(RL)训练掀起了新一轮的技术热潮。各大厂商与开源社区纷纷投入实践,持续探索更高效的 RL 训练体系。本文将基于 cann-recipes-train 仓库,解读两个实践样例:DeepSeek-R1 的 RL 训练优化实践样例、基于 verl 框架的 Qwen2.5 强化学习实践样例

cann-recipes-train 仓库全景解析:昇腾训练优化的"实战底座"

在这里插入图片描述
大模型训练拼效率的阶段,CANN 直接帮我们搞定了底层异构硬件适配、资源调度这些麻烦事,不用再从零研究 GPU 和 NPU 怎么协同,现有模型代码也不用大改就能对接,训 LLM 或多模态模型时还能通过算子优化、内存复用提升速度、减少资源浪费

cann-recipes-train 仓库不搞抽象理论,全是能直接复用的代码样例,比如具体 LLM 的训练优化步骤、多模态模型的算子调试方法,帮我们跳过 “看官方文档懂了但不会用” 的坑,不用自己反复试错,快速掌握 CANN 的优化技巧,把精力集中在模型本身。

方便广大开发者在昇腾环境中高效开展大模型的微调与续训,将开源的 cann-recipes-train 仓库面向典型的 LLM 与多模态模型训练任务,提供基于 CANN 平台优化样例与实践指南,帮助开发者简单、快速、高效在昇腾平台上完成模型训练与优化部署。首批版本中,cann-recipes-train 将上线两个基于 Verl 强化学习框架 的典型训练样例,分别覆盖 Qwen2.5 与 DeepSeek-R1-671B 两大模型DeepSeek-R1 RL训练优化样例:基于开源veRL框架,搭配MindSpeed+vLLM-Ascend框架,在Atlas A3集群实现GRPO算法的高吞吐RL训练,并达到120TPS/卡的系统吞吐量基于verl框架的Qwen2.5强化学习(入门样例):基于Qwen2.5-1.5B-Instruct模型,采用verl强化学习框架,在MATH-lighteval数学推理数据集上进行了训练,只需要单卡Atlas A2环境,快速上手使用昇腾NPU完成RL训练任务

cann-recipes-train 仓库 GitCode NoteBook 部署准备

1、NoteBook 资源配置计算资源:NPU:1*NPU 910B 32vCPU + 64GB 内存容器镜像:ubuntu22.04-py3.11-cann8.2.rc1-sglang-main-notebook

2、NoteBook 启动成功后使用 npu-smi 查看 NPU 状态、利用率当前 Notebook 的昇腾 910B3 NPU 状态正常,功耗 96.5W、温 46℃,HBM 显存仅用 3.3G(总 64G),无运行进程,资源低负载



3、cann-recipes-train 克隆到本地



4、进入 cann-recipes-train/rl_train 目录,可以看到特定模型的 RL(强化学习)训练相关样例集合

deepseek:DeepSeek-R1 RL训练优化实践样例
qwen2_5:基于verl框架的Qwen2.5强化学习实践样例

DeepSeek-R1 RL训练优化实践样例

GitCode Notebook 部署
针对DeepSeek-R1模型,基于 verl 开源框架,配合MindSpeed-LLM和vLLM-Ascend框架,完成RL训练全流程的优化适配

硬件要求:产品型号:Atlas A3 系列最少卡数:128张A3
1、安装样例依赖基础环境适配(安装核心依赖(如verl、torch_npu等)虽有部分版本冲突,但不影响核心功能



2、下载依赖的开源框架代码:拉取 Verl(指定 Commit)、vLLM(v0.9.1)、vLLM-Ascend(打补丁)及 Megatron-LM、MindSpeed 等多个指定版本的 AI 相关依赖框架,将其复制到 cann-recipes-train/rl_train/deepseek/ 目录,为该目录下的 deepseek 样例运行搭建适配的依赖环境



3、修改verl代码(为了使能patch修改,需要修改以下verl源码)
DeepSeek-R1 RL训练优化点解读
在这里插入图片描述
如图是基于Atlas A3 SuperPoD超节点128卡集群,加载真实权重和随机初始化权重的两个场景中性能效果
框架适配:Verl × vLLM-Ascend 适配
vLLM-Ascend 社区已经做好了 DeepSeek-R1 的昇腾适配,能直接用它提推理性能,但要让 verl 和它兼容,得改关键接口,主要是初始化 vLLMRollout 对象的 vllm_rollout_spmd.py 文件:手动加 vLLM-Ascend 的 patch:导入 vLLM 前得先引这个 patch,不然有些类和函数不匹配配 DP 通信参数:设 VLLM_DP_MASTER_PORT 和 IP,保证每个 DP 组有独立通信端口,适应集群环境关 sleep 模式:NPU 多机下 sleep 会导致显存释放不了,还得避免显存被 vLLM 内存池接管,后续没法手动卸载调 token 参数:加载真实权重时,默认 max_num_batched_token=8192 容易 OOM,改成 1024 再开 chunked_prefill 就行
性能优化(一):训推一体化与参数重排(Reshard/Offload)实践
大模型 RL 的时候,训练和推理时,模型在显卡上的分片方式完全不一样,训练时 8 张卡分成两组各 4 张(EP4),流水线也拆成多段(PP2);推理时得把 8 张卡合并成一组(EP8),流水线也不分段了(PP1)

模型训练完更新参数后,得把参数从训练的分片方式改成推理能用的(reshard),在训练组内用 alltoallv 通信,参数重排的时候没冗余数据传输,这一步快了不少

另外Actor、Rollout、Ref 三个模型挤在同一批卡上,切换的时候,前一个模型占着显存呢,不挪走新模型根本装不下,所以得先把不用的模型挪到主机内存(offload)腾地方,再把要用的加载到显卡,这部分昇腾团队专门调了显存管理和数据迁移的细节,切换耗时降了不少

这两部分优化下来,训推切换会更加顺畅,迭代效率也会明显提高。
在这里插入图片描述
reshard 优化核心:专家参数用 AlltoAllV 定向传:只给目标推理 rank 发参数,不做全量广播,大幅减少带宽冗余,单卡增量内存从 14G 压到 0.0547G,降低 OOM 风险PP 域通信调顺序:先在 TP 域聚合参数,再用 PP 域 AlltoAll 广播,减少通信量如 p=8、t=4 时第一步通信量减半和通信次数

offload 优化核心:替代 vLLM 有问题的功能:用 onload/offload_model_weight、init/free_cache_engine,替换 NPU 多机下不好使的 vLLM wake_up/sleep省冗余步骤 + 后置初始化:省去训练后到推理前的冗余卸载 / 加载,把推理 init_cache_engine 放到 reshard、卸载训练权重之后,降内存峰值、提 vLLM 利用率
性能优化(二):训练侧优化策略与算子融合技术
复用MindSpeed训练优化

verl 目前对接了MindSpeed,因此训练侧主要复用了MindSpeed在内存、通信和计算方面的许多优化技术,包含Ascend Swap Optimizer和使能融合算子等,对应的配置脚本片段大概是这样old_log_prob免计算

GRPO 这类 on-policy 算法里,有个关键特性:训练时模型参数未更新前,old_log_prob 的计算结果,和 update_actor 环节前向计算得到的 log_prob 完全一致,毕竟两者依赖的是同一套模型参数

所以昇腾团队用 log_prob.detach () 直接替代 old_log_prob,省去一次训练模型的前向计算大幅节省耗时,考虑到 verl 原生不支持这一优化,团队专门为其补充实现了该功能,目前只需要将配置项 config.actor_rollout_ref.actor.recompute_old_log_prob 设为 False,就可以启用优化

性能优化(三):推理侧加速与吞吐率提升路径
在这里插入图片描述
DeepSeek-R1 “1K 推 3K” 的 RL 推理场景中,昇腾团队以 162 token/p/s 的基础吞吐为起点,通过多轮技术迭代实现推理性能的阶梯式跃升:基于 TorchAir 图模式 + AIV 加速 + vLLM-V1 框架 优化,吞吐提升至 419 token/p/s消除大 EP 场景下的 Transpose 冗余算子 + Cumsum 冗余计算,进一步提升至 456 token/p/s引入 MoE/MLA 多流并行 + router 逻辑优化,突破至 487 token/p/s优化零冗余 TP 转 EP 通信机制,性能达 519 token/p/s通过 DP 间 EOS 检测调度优化,推理吞吐成功突破 618 token/p/s

一系列优化大幅压缩了长序列 RL 推理的耗时占比,成为昇腾团队推动 RL 训练整体性能提升的核心突破口!

基于verl框架的Qwen2.5强化学习实践样例

基于 Qwen2.5-1.5B-Instruct 模型,搭配 verl 强化学习框架,在 MATH-lighteval 数学推理数据集上开展训练训练目标:提升小模型复杂数学问题的分步推理能力,生成逻辑严密、结果可验证的推理过程硬件门槛:最低仅需单卡 Atlas A2 环境,助力快速上手昇腾 NPU 的 RL 训练任务
配套优化版 MATH 任务奖励函数
针对原生奖励函数 “字符串等价性误判、奖励信号稀疏” 的问题,通过多维度分级评分引导模型精准学习
在这里插入图片描述
verl 框架下 MATH 任务的奖励函数总分 1 分,遵循 “答案正确性优先” 原则:

答案错误直接得 0 分,答案正确则分三维度打分:math_verify 做数学语义验证的准确度占 0.7 分符合指定标签样式且规范的格式占 0.2 分包含有序思考步骤与逻辑关键词的思维链占 0.1 分

同时答案错误时不评估格式、思维链,避免模型偏离精准求解目标,既解决了原生函数的误判问题,也通过多维度评分缓解了奖励稀疏,同时能引导模型生成更规范的表达、更完整的推理过程

cann-recipes-train 仓核心定位:连接 CANN 能力与训练业务的"桥梁"

从个人角度来看,Cann仓库诞生源于大模型训练的两大痛点:一是 CANN 平台的底层优化能力如算子调度、内存管理需要结合具体模型场景才能发挥价值,开发者缺乏场景化参考;二是强化学习等复杂训练流程的工程化落地难度高,需兼顾框架整合、硬件适配与性能调优,而 cann-recipes-train 通过 “典型模型 + 优化算法 + 可运行样例” 的组合,直接打通了 “CANN 能力→训练业务” 的链路,对开发者来说 cann-recipes-train 不算通用训练框架,更像 CANN 平台训练优化的实战手册。

场景聚焦:专门针对 LLM 与多模态模型的训练业务,覆盖强化学习(RL)核心训练场景,解决大模型训练中 高吞吐、易部署、低硬件门槛的实际需求

技术适配:深度整合 CANN 平台的异构计算能力,将抽象的加速算法转化为可直接运行的代码样例,避免重复造轮子

分层支持:提供单卡入门级样例,也包含集群高性能样例,覆盖不同阶段开发者的需求

总结与展望:cann-recipes-train 助力昇腾生态加速 AI 训练落地

在这里插入图片描述
cann-recipes-train 仓库针对 LLM、多模态训练场景中的典型模型、算法,提供基于 CANN 平台的优化样例,方便开发者简单、快速、高效等使用 CANN 进行模型训练首批开源样例

入门样例:基于 ver1 开源框架 & A2 单卡,Qwen2.5-1.5B RL 训练样例,低成本快速上手

优化样例:基于 ver1 开源框架 & A3 集群,DeepSeek-V3 RL 训练样例,实现大集群高吞吐训练沟通渠道:👉GitCode:CANN/cann-recipes-train

欢迎大家到仓库提交 ISSUE/PR,复现、捉虫、贡献新样例,和广大开发者交流讨论

Read more

7D-AI系列:AI 编程 Spec Coding 完整详细的典型标准化工作流

文章目录 * 前言 * 一、核心前提:什么是「Spec(规格)」?Spec的核心要求 * ✅ Spec的定义 * ✅ Spec的核心要求(重中之重,决定代码质量) * ✅ Spec的常见载体(按优先级排序,工业界高频使用) * 二、Spec Coding 标准完整工作流(6个核心阶段) * ✅ 核心原则 * 阶段1:需求拆解 & 范围界定(前置准备,耗时占比:10%) * 阶段2:编写精准的结构化Spec(核心核心,耗时占比:30%,最关键) * 阶段3:AI 代码生成(核心提效环节,耗时占比:5%) * 阶段4:人工评审 + 静态校验(第一道质检,耗时占比:15%,过滤80%的问题) * 阶段5:自动化测试

AI 与存储的结合:智能存储的实践与挑战

AI 与存储的结合:智能存储的实践与挑战

AI 与存储的结合:智能存储的实践与挑战 背景 作为一个专注于存储架构的技术人,我一直在关注人工智能技术的发展及其在存储领域的应用。最近团队在探索如何利用 AI 技术提升存储系统的性能和效率,遇到了许多挑战。为了帮助团队更好地理解和实践智能存储,我决定写这篇实践指南。 智能存储的概念 1. 什么是智能存储 智能存储是指利用人工智能技术(如机器学习、深度学习等)来优化存储系统的性能、可靠性和管理效率的存储解决方案。智能存储的核心特点是: * 自优化:自动优化存储配置和资源分配 * 自监控:自动监控存储系统的状态和性能 * 自修复:自动检测和修复存储系统的问题 * 预测性分析:预测存储系统的性能和容量需求 2. 智能存储的优势 * 性能提升:通过 AI 优化存储性能 * 成本降低:优化存储资源使用,降低存储成本 * 可靠性提高:预测和预防存储故障 * 管理效率:自动化存储管理,减少人工干预 3. 智能存储的挑战 * 数据质量:AI 模型需要高质量的数据进行训练 * 计算开销:AI

一天一个开源项目(第43篇):Star-Office-UI - 像素风格的 AI 办公室看板,让 AI 助手的工作状态可视化

一天一个开源项目(第43篇):Star-Office-UI - 像素风格的 AI 办公室看板,让 AI 助手的工作状态可视化

引言 “A pixel office for your OpenClaw: turn invisible work states into a cozy little space with characters, daily notes, and guest agents.” 这是「一天一个开源项目」系列的第 43 篇文章。今天介绍的项目是 Star-Office-UI(GitHub)。 AI Agent 的工作状态通常是"看不见"的——你不知道它正在做什么、昨天做了什么、现在是否在线。Star-Office-UI 是一款像素风格的 AI 办公室看板系统,它将 AI 助手的工作状态实时可视化,让你直观看到"

告别塑料感!阿里Qwen-Image-2512用真实质感重新定义AI绘画

告别塑料感!阿里Qwen-Image-2512用真实质感重新定义AI绘画

2025年12月31日,当多数人在准备跨年时,阿里通义千问团队突然开源了Qwen-Image-2512这款图像生成模型。它号称要干掉“AI味”,生成的照片比真人拍的还真实。我抱着“真的假的”的心态试用了几天,结论是:它对新手极其友好,且效果突出。 01 模型进化,让AI绘画告别“塑料感”时代 AI绘画一直有个难以摆脱的标签——“AI味”,那种过于完美却不真实的质感,让作品总显得有点“塑料感”。 Qwen-Image-2512针对这一痛点进行了升级更新,让生图效果更细腻、也更真实。 人物肌肤质感方面,新模型能够生成真实毛孔纹理与细微光影变化,发丝根根分明,眼神生动自然。 在自然纹理还原上,无论是风景构图中的水流、树木,还是动物毛发,都呈现出惊人的细腻度。 复杂文字渲染是Qwen-Image系列的强项,而2512版本进一步提升了文字渲染质量与排版准确性,图文混合渲染更加精准。 在AI Arena平台进行的超过1万局模型盲测中,Qwen-Image-2512被评为当前最强开源图像生成模型,甚至在某些方面可与闭源商业模型一较高下。 02 零门槛入门,两种方式快速上手 对于