Trae IDE 安装与使用保姆级教程:字节跳动的 AI 编程神器

一、Trae 是什么?

Trae(发音 /treɪ/)是字节跳动推出的 AI 原生集成开发环境(AI IDE),于 2025 年 1 月正式发布。与传统的 IDE + AI 插件组合不同,Trae 从底层架构上就将 AI 能力深度集成,实现了真正意义上的"AI 主导开发"。

核心定位

Trae 以 “自主智能体(Agent)” 为核心定位,彻底重构了传统开发流程:

  • Chat 模式:智能代码补全、问答、解释和优化
  • Builder 模式:自然语言一键生成完整项目框架
  • SOLO 模式:AI 自主规划并执行开发任务

版本划分

版本定位核心特色适用人群
Trae 国际版面向全球开发者GPT、Gemini 等国际顶尖模型海外用户、国际化项目
Trae 国内版面向国内开发者Doubao、Kimi、DeepSeek-R1/V3 等国产模型国内用户、中文项目

两种形态

Trae 提供两种产品形态,满足不同需求:

形态说明特点
Trae IDE完整的独立 IDE功能最全,AI 能力深度集成
Trae 插件VS Code / JetBrains 插件轻量级,在现有 IDE 中增强 AI 能力

二、安装 Trae

2.1 系统要求

系统版本要求存储空间
WindowsWindows 10/11建议 SSD,预留 1GB+
macOSmacOS 10.15+建议 SSD,预留 1GB+
💡 提示:安装包约 600MB,建议使用 SSD 以获得最佳性能。

⚠️ 注意:Linux 版本目前仍在开发中,尚未正式发布。请关注官方公告获取最新信息。

2.2 下载安装(Windows 为例)

步骤 1:选择版本

国内用户:访问 https://www.trae.com.cn/
海外用户
:访问 https://www.trae.ai/

步骤 2:下载安装包

点击首页的"立即下载"按钮,选择对应系统的版本:

  • Windows 用户下载 .exe 安装包
  • macOS 用户下载 .dmg 安装包
步骤 3:运行安装程序
  1. 双击下载的安装包
  2. 点击"同意"许可协议
  3. 选择安装路径(建议保持默认)
  4. 点击"下一步"完成安装
步骤 4:首次启动

安装完成后,桌面会出现 Trae 图标。双击启动,你会看到模式选择界面:

在这里插入图片描述

三、Trae 的三种开发模式

Trae 提供三种 AI 开发模式,适应不同场景:

3.1 Chat 模式(智能问答)

适合场景:日常编码辅助、代码解释、Bug 修复

核心功能

  • ✅ 智能代码补全(Tab 键一键接受)
  • ✅ 代码解释(选中代码,右键"解释")
  • ✅ 智能问答(侧边栏 Chat 功能)
  • ✅ 代码优化建议
  • ✅ Bug 诊断与修复

使用示例

# 输入注释,按 Tab 自动补全代码# 计算斐波那契数列的前 n 项deffibonacci(n):"""Trae 会自动补全这个函数的实现"""if n <=0:return[]elif n ==1:return[0]elif n ==2:return[0,1] fib =[0,1]for i inrange(2, n): fib.append(fib[i-1]+ fib[i-2])return fib 

3.2 Builder 模式(项目生成)

适合场景:快速搭建项目框架、原型开发

核心功能

  • 🏗️ 自然语言描述需求,一键生成完整项目
  • 📁 自动创建项目结构和文件
  • 🎨 自动配置技术栈和依赖
  • 📝 生成基础代码和注释

使用示例

在 Builder 模式的对话框中输入:

帮我创建一个 Python 爬虫项目,爬取豆瓣电影 Top250 的电影信息, 包括电影名、评分、导演、主演,保存到 CSV 文件中。 使用 requests + BeautifulSoup,包含异常处理和日志记录。 

Trae 会自动:

  1. 创建项目文件夹 douban-spider/
  2. 生成 spider.py - 爬虫主程序
  3. 生成 requirements.txt - 依赖列表
  4. 生成 README.md - 项目说明
  5. 生成 config.py - 配置文件

3.3 SOLO 模式(AI 自主开发)

适合场景:自动化任务、快速原型、非专业程序员

核心功能

  • 🤖 AI 自主规划并执行开发任务
  • 🔄 自动迭代优化代码
  • 📊 自动运行测试和调试
  • 🎯 自动完成端到端开发

使用示例

创建一个待办事项 Web 应用,使用 Flask 框架。 功能包括:添加任务、标记完成、删除任务、显示所有任务。 前端使用简单的 HTML 和 CSS,要求界面美观。 

Trae 会自动完成从项目创建到运行测试的整个流程。


四、AI 模型选择与切换

4.1 国内版模型阵容

国内版主打国产大模型联盟,覆盖字节跳动、智谱AI、MiniMax、月之暗面等国内顶尖AI厂商:

模型厂商定位特色
Doubao-Seed-Code字节跳动代码专用模型针对编程场景深度优化,代码生成速度快
GLM-4.7智谱AI旗舰模型中文理解能力强,逻辑推理优秀
GLM-4.6智谱AI高性能模型平衡性能与速度,适合日常开发
MiniMax-M2.1MiniMax最新版本长文本处理能力突出
MiniMax-M2MiniMax稳定版本通用能力强,响应速度快
Kimi-K2.5月之暗面最新版本长上下文窗口,适合大型项目分析
Kimi-K2-0905月之暗面稳定版本代码理解和生成能力均衡

国内版优势

  • ✅ 国产模型针对中文编程场景深度优化
  • ✅ 对国内技术栈(Vue、Ant Design、Element Plus等)理解更深入
  • ✅ 网络访问零延迟,响应速度快
  • ✅ 符合国内数据合规要求
  • ✅ 完全免费使用

4.2 国际版模型阵容

国际版汇聚全球顶尖AI模型,覆盖OpenAI、Google、DeepSeek、月之暗面等国际厂商:

模型厂商定位特色
GPT-5.2-CodexOpenAI代码专用模型最新编程模型,代码生成质量顶尖
GPT-5.2OpenAI最新旗舰多模态能力强,复杂逻辑处理优秀
GPT-5.1OpenAI稳定旗舰综合能力均衡,适合大多数场景
GPT-5-mediumOpenAI中端模型速度与质量平衡
GPT-5-highOpenAI高端模型高质量输出,适合复杂任务
Gemini-3-Pro-PreviewGoogle专业预览版超长上下文,大型项目分析利器
Gemini-3-Pro-Preview (200k)Google超长上下文版支持20万token上下文,适合代码库分析
Gemini-2.5-ProGoogle专业版推理能力强,数学和算法表现优异
Gemini-3-Flash-PreviewGoogle快速预览版响应速度快,适合实时编码
Gemini-2.5-FlashGoogle快速版低延迟,适合日常补全
Kimi-K2-0905月之暗面稳定版本长上下文支持,代码理解深入
DeepSeek-V3.1DeepSeek代码专用开源模型中的佼佼者,代码生成质量高

国际版优势

  • ✅ GPT-5系列在代码生成质量上处于全球领先地位
  • ✅ Gemini-3系列支持超长上下文,适合大型项目
  • ✅ 多语言支持能力强,适合国际化开发
  • ✅ 在算法、数据结构等计算机科学基础领域表现卓越

4.3 模型切换方法

切换步骤

  1. 点击左下角模型名称(如"Doubao-1.5-pro")
  2. 在弹出的模型列表中选择想要的模型
  3. 新对话将使用选中的模型

选择建议

场景国内版推荐国际版推荐
快速代码补全Doubao-Seed-CodeGPT-5.2-Codex
复杂逻辑推理GLM-4.7GPT-5.2 / Gemini-2.5-Pro
长文本分析Kimi-K2.5Gemini-3-Pro-Preview (200k)
通用开发MiniMax-M2GPT-5-medium / Gemini-2.5-Flash
算法实现GLM-4.7GPT-5-high
大型项目分析Kimi-K2.5Gemini-3-Pro-Preview (200k)
快速响应MiniMax-M2Gemini-2.5-Flash
开源项目-DeepSeek-V3.1

五、实战案例

案例 1:用 Builder 模式创建项目

需求:创建一个 Vue 3 + TypeScript 的电商后台管理系统

步骤

  1. 切换到 Builder 模式
  2. 等待 AI 自动生成项目
  3. 按提示运行项目

在对话框输入:

创建一个电商后台管理系统,使用 Vue 3 + TypeScript + Element Plus, 包含商品管理、订单管理、用户管理、数据统计四大模块, 要求界面美观、响应式布局,并包含登录页面。 

Trae 会自动生成

  • src/components/ - 组件目录
  • src/views/ - 页面目录
  • src/router/ - 路由配置
  • src/store/ - 状态管理
  • package.json - 项目配置

案例 2:用 Chat 模式调试代码

场景:遇到一个 Bug,不知道原因

步骤

  1. 选中报错的代码
  2. 右键选择"解释代码"
  3. Trae 会分析代码并指出问题
  4. 点击"修复"按钮,自动修复 Bug

示例

# 有 Bug 的代码defdivide(a, b):return a / b # 没有处理 b=0 的情况# Trae 会提示:# "这段代码存在除零风险,建议添加异常处理"# 修复后的代码defdivide(a, b):try:return a / b except ZeroDivisionError:return"错误:除数不能为零"

案例 3:用 SOLO 模式完成自动化任务

场景:需要批量处理数据文件

步骤

  1. 切换到 SOLO 模式
  2. Trae 自动编写、运行、验证代码

描述任务:

帮我写一个 Python 脚本,批量处理当前文件夹下的所有 CSV 文件, 将每个文件的第一列数据求和,并将结果保存到新的 CSV 文件中。 

六、Trae 插件版使用

6.1 插件版 vs IDE 版

对比项Trae IDETrae 插件
安装方式独立安装包VS Code / JetBrains 插件市场
功能完整性功能最全核心 AI 功能
资源占用较高较低
适用场景主力开发工具现有 IDE 增强

6.2 安装 Trae 插件(VS Code)

  1. 打开 VS Code
  2. 点击左侧扩展图标(或按 Ctrl+Shift+X
  3. 搜索 “Trae”
  4. 点击"安装"
  5. 安装完成后,左侧会出现 Trae 图标

6.3 插件版功能

插件版提供核心 AI 功能:

  • Chat 智能问答
  • 代码补全
  • 代码解释
  • Bug 修复
⚠️ 注意:Builder 模式和 SOLO 模式仅在 Trae IDE 完整版中提供。

七、常见问题与解决方案

Q1:国内版和国际版有什么区别?

对比项国内版国际版
核心模型Doubao-Seed-Code / GLM / MiniMax / KimiGPT-5 / Gemini-3 / DeepSeek
网络访问国内直接访问需国际网络环境
中文支持深度优化一般
代码质量优秀顶尖
使用成本完全免费免费额度 + 付费订阅
数据合规境内处理境外处理

选择建议

  • 国内用户优先选择国内版,网络稳定、中文支持好、完全免费
  • 海外用户或有国际网络环境的用户可选择国际版,模型能力更强

Q2:Trae 会泄露我的代码吗?

Trae 官方承诺:

  • 代码仅用于提供 AI 服务
  • 不会用于训练模型
  • 国内版数据处理在境内,符合合规要求

Q3:可以导入 VS Code 的配置吗?

可以!Trae IDE 基于 VS Code 开发,支持:

  • 导入 VS Code 的设置
  • 安装 VS Code 插件
  • 使用 VS Code 快捷键

Q4:免费版有使用限制吗?

国内版:完全免费,无使用限制
国际版:有免费额度限制,重度使用需购买订阅

Q5:支持哪些编程语言?

Trae 支持主流编程语言:

  • Python、JavaScript/TypeScript
  • Java、Go、Rust
  • C/C++、C#
  • HTML/CSS、SQL
  • 以及更多…

八、自定义智能体:打造专属 AI 助手

Trae 最强大的功能之一是支持创建自定义智能体。通过配置专属的提示词和工具集,你可以打造面向特定开发场景的编程助手。

8.1 什么是自定义智能体?

自定义智能体是 Trae 中面向特定开发场景的编程助手。与通用 Chat 不同,自定义智能体:

  • 🎯 专注特定领域:如前端架构、后端开发、代码审查等
  • 🛠️ 集成专属工具:通过 MCP 连接数据库、API 等外部服务
  • 📋 遵循团队规范:封装代码风格、审查标准等团队规范
  • 🤝 支持分享导入:一键分享给团队成员使用

8.2 创建自定义智能体

步骤 1:打开智能体管理

  1. 点击左侧边栏的"智能体"图标
  2. 点击"创建智能体"按钮

步骤 2:配置智能体

┌─────────────────────────────────────┐ │ 创建自定义智能体 │ │ │ │ 名称:前端架构师 │ │ 描述:专注于 React/Vue 组件设计 │ │ │ │ 提示词(Prompt): │ │ ───────────────────────────────── │ │ 你是一位资深前端架构师,精通 │ │ React、Vue、Angular 等主流框架。 │ │ │ │ 职责: │ │ 1. 设计可维护、可扩展的前端架构 │ │ 2. 提供性能优化方案 │ │ 3. 制定代码规范和最佳实践 │ │ 4. 指导组件设计和状态管理 │ │ │ │ 输出要求: │ │ - 提供具体的代码示例 │ │ - 解释设计决策的原因 │ │ - 指出潜在的风险和注意事项 │ │ ───────────────────────────────── │ │ │ │ [添加 MCP 工具] [保存] [分享] │ └─────────────────────────────────────┘ 

步骤 3:添加 MCP 工具(可选)

点击"添加 MCP 工具",从 MCP 市场选择需要的工具:

  • 数据库操作工具
  • API 调用工具
  • 文件系统工具
  • 代码分析工具

8.3 推荐的自定义智能体类型

智能体名称适用场景核心能力
前端架构师React/Vue 项目组件设计、状态管理、性能优化
后端工程师API 开发接口设计、数据库建模、缓存策略
代码审查员代码质量规范检查、Bug 识别、重构建议
测试专家测试开发测试用例生成、覆盖率分析、自动化测试
DevOps 助手运维部署CI/CD 配置、Docker 编写、云资源管理
数据分析师数据处理SQL 优化、数据清洗、可视化建议
安全顾问安全审计漏洞检测、安全编码规范、加密建议
文档工程师技术文档API 文档生成、README 编写、注释规范

8.4 分享与导入智能体

分享智能体

  1. 创建完成后,点击"分享"按钮
  2. 生成分享链接:trae://agent/import?agent=xxx&id=xxx
  3. 将链接分享给团队成员

导入智能体

  1. 点击他人分享的链接
  2. 跟随指引一键导入
  3. 在聊天窗口中选择该智能体即可使用

九、MCP:无限扩展的工具生态

9.1 什么是 MCP?

MCP(Model Context Protocol,模型上下文协议) 是一种开放协议,它允许大语言模型访问自定义的工具和服务。通过 MCP,AI 可以:

  • 调用外部 API 获取实时数据
  • 操作文件系统和数据库
  • 与第三方服务集成
  • 执行特定的业务逻辑

9.2 MCP 架构

┌─────────────────┐ ┌─────────────┐ ┌─────────────────┐ │ Trae 智能体 │────▶│ MCP 客户端 │────▶│ MCP Server │ │ (Agent/Builder)│ │ (内置) │ │ (外部工具服务) │ └─────────────────┘ └─────────────┘ └─────────────────┘ │ ▼ ┌─────────────┐ │ 第三方服务 │ │ - 数据库 │ │ - API │ │ - 文件系统 │ └─────────────┘ 

9.3 MCP 市场

Trae 内置了 MCP 市场,提供了社区中上百个热门的 MCP Servers:

类别典型 MCP Servers
数据库PostgreSQL、MySQL、MongoDB 等数据库操作工具
文件操作文件系统管理、文档处理、图像处理等
Web 服务HTTP 请求、API 调用、网页抓取等
开发工具Git 操作、代码分析、测试工具等
云服务AWS、Azure、GCP 等云平台操作

添加 MCP Server 的方式

  1. 从市场添加:浏览 MCP 市场,一键安装所需工具
  2. 手动添加:配置自定义 MCP Server 的地址和参数

9.4 MCP 使用示例

场景:连接数据库,自动生成 CRUD 代码

  1. 在智能体中添加 PostgreSQL MCP Server
  2. 输入需求:“根据 users 表结构生成 CRUD API”
  3. AI 自动查询表结构,生成对应的代码

十、Rules:让 AI 更听话的秘密

10.1 什么是 Rules?

Rules 是 Trae 中用于控制 AI 行为的规则系统。通过 Rules,你可以:

  • 设定代码风格规范
  • 定义项目目录结构
  • 指定输出格式要求
  • 控制规则生效时机

10.2 Rules 的四种生效方式

TRAE Rules 提供了 4 种生效方式,用来控制适用范围与时机:

生效方式适用场景典型例子
始终生效低冲突、强一致、任何任务都不应违背的规则输出语言、格式约定、通用代码风格
指定文件生效边界清晰、与文件类型/目录强相关的规则SQL 迁移规范、前端组件规范、后端 API 设计
智能生效偶尔使用但重要,希望"相关时自动出现"的规则日志排查 SOP、性能优化指南、安全最佳实践
手动触发生效仅在特定场景下需要,避免自动干扰的规则特定业务流程、临时规范、实验性指导

10.3 多规则管理

Trae 支持配置多条 Rule 文件,把不同主题/职责拆到不同文件里:

规则文件结构示例

.trae/ ├── frontend-general.md # 始终生效:通用前端规范 ├── react-components.md # 指定文件生效:React 组件规范 ├── css-styling.md # 指定文件生效:CSS 样式规范 ├── performance-optimization.md # 智能生效:性能优化指南 └── debugging-sop.md # 手动触发:调试标准流程 

优势

  • 可维护性:每条规则只管一类事情,修改更集中
  • 可协作性:团队可以按职责分工维护不同规则文件
  • 可组合性:不同项目可以复用同一组模块

10.4 Rules 编写技巧

规则编写原则

  1. 保持简洁:每条规则尽量控制在合理长度,专注于核心内容
  2. 明确边界:清晰定义规则的适用范围和不适用场景
  3. 提供示例:为复杂规则提供具体的示例,帮助模型理解
  4. 定期更新:建立规则的定期审查和更新机制

示例 Rule 文件

# 前端开发规范 ## 代码风格 - 使用 2 个空格缩进 - 使用单引号而非双引号 - 最大行长度 100 字符 ## React 组件规范 - 函数组件优先,使用 Hooks - Props 必须定义类型(TypeScript) - 组件名使用 PascalCase ## 性能优化 - 图片使用 WebP 格式 - 大列表使用虚拟滚动 - 避免不必要的重渲染 

十一、进阶技巧

11.1 自定义快捷键

Trae 支持自定义快捷键:

  1. 打开设置(Ctrl+,
  2. 搜索"快捷键"
  3. 自定义你喜欢的快捷键

推荐设置

  • Ctrl+Shift+A - 打开 Chat
  • Ctrl+Shift+B - 打开 Builder
  • Tab - 接受 AI 建议(默认)

11.2 提示词优化技巧

  1. 明确技术栈:在 Prompt 中明确指定框架和库版本
  2. 提供示例:给出期望的代码风格示例
  3. 分步骤描述:复杂需求拆分为多个步骤
  4. 指定输出格式:明确代码注释语言(中文/英文)

示例

请帮我写一个 Python 函数,使用 pandas 读取 CSV 文件, 要求: 1. 处理文件不存在的情况 2. 处理编码错误 3. 返回 DataFrame 对象 4. 添加详细的中文注释 

11.3 使用代码片段(Snippets)

Trae 支持代码片段:

  1. 打开用户代码片段(Ctrl+Shift+P → “配置用户代码片段”)
  2. 创建自定义片段
  3. 输入前缀快速插入代码

示例 Python 片段

{"FastAPI Hello World":{"prefix":"fastapi-hello","body":["from fastapi import FastAPI","","app = FastAPI()","","@app.get(\"/\")","async def root():"," return {\"message\": \"Hello World\"}"],"description":"FastAPI 基础模板"}}

十二、总结

Trae 的核心优势

AI 原生:不是插件,而是深度集成 AI 的 IDE
三模式:Chat、Builder、SOLO 适应不同场景
双版本:国内版免费稳定,国际版模型顶尖
自定义智能体:打造专属 AI 助手,提升专业领域效率
MCP 生态:无限扩展的工具集成能力
Rules 体系:精准控制 AI 行为,确保输出质量
易上手:基于 VS Code,学习成本低
插件支持:也可作为插件在现有 IDE 中使用

适合谁使用?

  • 👨‍💻 程序员:提升编码效率,减少重复劳动
  • 🎓 学生:学习编程,快速理解代码
  • 🏢 企业:统一开发工具,提升团队效率
  • 🤖 AI 爱好者:体验 AI 辅助编程的魅力

写在最后

Trae 代表了编程工具的未来方向——AI 与人类开发者深度协作。它不会取代程序员,而是让程序员从繁琐的重复劳动中解放出来,专注于更有创造性的工作。

如果你还没尝试过 Trae,现在就去官网下载体验吧!

官网

  • 国内版:https://www.trae.com.cn/
  • 国际版:https://www.trae.ai/

Read more

11-Xtuner具体使用以及LLama Factory与Xtuner多卡微调大模型

11-Xtuner具体使用以及LLama Factory与Xtuner多卡微调大模型

训练前 500轮训练后 xtuner命令不存在 版本:0.2.0存在 回退到0.2.0rc0版本,注意这个版本的依赖固定 一、大模型分布式训练的基本概念 1.1 为什么需要分布式训练? 模型规模爆炸:现代大模型(如GPT-3、 LLaMA等)参数量达千亿级别,单卡GPU无法存储完整模型。 计算资源需求:训练大模型需要海量计算(如GPT-3需数万GPU小时),分布式训练可加速训练过程。 内存瓶颈:单卡显存不足以容纳大模型参数、梯度及优化器状态。 1.2 分布式训练的核心技术 数据并行(Data Parallelism) 原理:将数据划分为多个批次,分发到不同设备,每个设备拥有完整的模型副本。 同步方式:通过All-Reduce操作同步梯度(如PyTorch的DistributedDataParallel)。 挑战:通信开销大,显存占用高(需存储完整模型参数和优化器状态)。 模型并行(Model Parallelism) 原理:

SiameseUniNLU镜像免配置优势:开箱即用支持NER/RE/EC/RC/NLI/RC/QA八大任务

SiameseUniNLU镜像免配置优势:开箱即用支持NER/RE/EC/RC/NLI/RC/QA八大任务 你是不是也遇到过这样的烦恼?想用AI模型处理一段中文文本,比如从新闻里提取人名地名,或者分析一段评论是好评还是差评。结果发现,每个任务都需要找一个专门的模型,部署起来步骤一大堆,配置文件看得人头大,好不容易跑起来了,效果还不一定好。 今天要介绍的SiameseUniNLU镜像,就是来解决这个问题的。它就像一个“自然语言处理瑞士军刀”,把命名实体识别、关系抽取、情感分类等八个常用任务,全都打包进了一个模型里。最棒的是,它完全免配置,下载下来就能用,真正做到了开箱即用。 这篇文章,我就带你快速上手这个强大的工具,看看它到底能做什么,以及怎么用最简单的几步,让它为你工作。 1. SiameseUniNLU是什么?一个模型解决八大任务 在深入使用之前,我们先花几分钟了解一下SiameseUniNLU到底厉害在哪里。理解了它的设计思路,你用起来会更得心应手。 1.1 核心思路:用“提示”统一所有任务 传统的自然语言处理(NLP)

从零开始:AIGC中的变分自编码器(VAE)代码与实现

从零开始:AIGC中的变分自编码器(VAE)代码与实现

个人主页:chian-ocean 文章专栏 深入理解AIGC中的变分自编码器(VAE)及其应用 随着AIGC(AI-Generated Content)技术的发展,生成式模型在内容生成中的地位愈发重要。从文本生成到图像生成,变分自编码器(Variational Autoencoder, VAE)作为生成式模型的一种,已经广泛应用于多个领域。本文将详细介绍VAE的理论基础、数学原理、代码实现、实际应用以及与其他生成模型的对比。 1. 什么是变分自编码器(VAE)? 变分自编码器(VAE)是一种生成式深度学习模型,结合了传统的概率图模型与深度神经网络,能够在输入空间和隐变量空间之间建立联系。VAE与普通自编码器不同,其目标不仅仅是重建输入,而是学习数据的概率分布,从而生成新的、高质量的样本。 1.1 VAE 的核心特点 * 生成能力:VAE通过学习数据的分布,能够生成与训练数据相似的新样本。 * 隐空间结构化表示:VAE学习的隐变量分布是连续且结构化的,使得插值和生成更加自然。 * 概率建模:VAE通过最大化似然估计,能够对数据分布进行建模,并捕获数据的复杂特性。

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone