TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

1 下载&安装TRAE

1.1 什么是 TRAE ?

字节跳动发布的AI原生编程工具,可帮助开发者从0到1开发完整项目。

TRAE(/treɪ/)深度融合 AI 能力,是一名能够理解需求、调用工具并独立完成各类开发任务的“AI 开发工程师”,帮助你高效推进每一个项目。

支持以下功能:

实时续写代码调试运行智能排查Bug版本控制自动构建项目一键预览效果解答技术难题

1.2 下载

国内版下载地址(推荐):https://www.trae.cn/ide/download

国际版下载地址(适合已订阅国外大模型的用户): https://www.trae.ai/download

目前支持的系统(注意:Linux版本需要预约候补):

  • Windows
  • macOS
  • Linux

1.3 安装

 点击打开已下载的安装包,选择安装目录,一路点击下一步即可。

选择“个人用户”

注意:“个人版”登录需要个人手机号码

2 订阅方舟 Coding Plan

2.1 订阅地址及活动

订阅活动地址: https://www.volcengine.com/activity/codingplan

活动:

        活动价格:Lite plan 原价40月/月,活动价9折。

        新用户最低至首月3元/月。

        新用户福利:赠 ArkClaw 7 天免费体验。

        模型自由,工具不限,免费解锁 ArkClaw(字节龙虾),7*24 小时在线的专属智能伙伴。

推荐活动邀请码:

         限时邀请有礼活动:邀请好友订阅,好友可享 9 折优惠;您也可获得 10% 的代金券奖励,上不封顶。

X496JUKT

2.2 套餐包含哪些大模型?

目前支持的大模型:https://www.volcengine.com/docs/82379/1925114?lang=zh&_vtm_=0.0.c854860.d562002.0#51b87c17

 Doubao-Seed-2.0-pro/lite/Code Doubao-Seed-Code MiniMax-M2.5 Kimi-K2.5 GLM-4.7 Deepseek-V3.2


 

3 TRAE-个人版 如何配置使用方舟 Coding Plan

3.1 配置步骤

1)使用个人账号登录 TRAE;

2)点击设置并在模型页面中点击“添加模型”;

        

 3)在弹出的页面中,依次填写必要的参数

服务商:火山引擎 Plan

模型:   直接从列表中选择提供的模型:GLM-4.7Kimi-K2.5DeepSeek-V3.2Doubao-Seed-Code如果以上列表中没有你想要的模型,则选择“使用其他模型”,并按照Coding Plan 核心参数中参数值的模型 ID填入正确的模型 ID。

API 密钥:获取API Key

其他模型 Coding Plan 核心参数

核心参数参数值 注意事项
Base URLhttps://ark.cn-beijing.volces.com/api/coding/v3⚠️ 注意:请勿使用 https://ark.cn-beijing.volces.com/api/v3,该 Base URL 对应的是在线推理接口,不会消耗您的 Coding Plan 额度,而是会产生额外费用。
Model Name支持的模型名称如下:
doubao-seed-2.0-code
doubao-seed-2.0-pro
doubao-seed-2.0-lite
doubao-seed-code
minimax-m2.5
glm-4.7
deepseek-v3.2
kimi-k2.5
ark-code-latest (选择 ark-code-latest 时,可通过 开通管理页面选择或切换目标模型,切换模型后 3-5 分钟即可生效)
⚠️ 注意:请勿填写成 在线推理的 Model ID ,这些 Model ID 对应的是在线推理的模型名称,例如:
doubao-seed-2-0-pro-260215
doubao-seed-2-0-code-preview-260215
glm-4-7-251222
deepseek-v3-2-251201
API Key获取 API Key

获取API Key

配置地址:

https://console.volcengine.com/ark/region:ark+cn-beijing/apikey?apikey=%7B%7D

推荐方式:先建项目再创建API Key,方便统计token使用情况

        a)【项目配置】新建项目

        b)【账号全部资源】切换为新建的项目

        c)【API Key 管理】新增API Key

4)添加完成后,在TRAE的问答窗口中选择刚刚配置的模型即可。

        

   

3.2 切换模型   

在 AI 对话输入框的右下角,单击当前模型名称,在模型列表中,选择配置的模型。

注意:优先选择自定义的模型,这样才能正确使用订阅内的token套餐,避免产生额外费用。

至此,模型已经配置完成,之后就可以在 TRAE 中进行 AI 编程任务了。

4 总结

字节系的 AI 编程工具 TRAE + 方舟 Coding Plan 的组合还是比较容易落地的,同一厂家兼容性保障较好,目前订阅也不用抢(点名GLM Coding Plan)。

截止2026年03月18日,已陆续放开订阅:

Read more

从理论到实践:Llama Factory中的微调算法深度解析

从理论到实践:Llama Factory中的微调算法深度解析 作为一名AI研究员,你是否遇到过这样的困境:想要对大语言模型进行微调,却苦于显存不足?或者在使用LLaMA-Factory时,虽然能跑通流程,但对各种微调方法背后的数学原理和实现细节一知半解?本文将带你深入理解LLaMA-Factory中的微调算法,从理论基础到实践操作,助你针对特定任务进行算法层面的定制优化。这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 微调方法概述与显存需求分析 LLaMA-Factory支持多种微调方法,每种方法在显存占用和效果上各有优劣。理解这些方法的原理是进行算法优化的第一步。 主要微调方法对比 * 全参数微调(Full Fine-Tuning):更新模型所有参数,效果最好但显存需求最高 * LoRA(Low-Rank Adaptation):通过低秩分解减少可训练参数量 * Adapter Tuning:在Transformer层间插入小型网络模块 * Prefix Tuning:在输入前添加可训练的前缀向量 显存需求参考

马年新春|AIGC快速生成企业新春营销素材(附Python实操+效果论证)

马年新春|AIGC快速生成企业新春营销素材(附Python实操+效果论证)

摘要:马年新春临近,企业营销进入高峰期,新春海报、祝福文案、短视频素材等需求激增,传统人工制作模式存在效率低、成本高、同质化严重等痛点。本文结合2026年AIGC产业发展趋势,聚焦企业新春营销场景,提供基于Python+Stable Diffusion的AIGC素材生成完整实操方案,包含环境搭建、参数调试、效果优化,结合真实行业数据与文献论证方案可行性,帮助企业快速落地AI生成营销素材,兼顾效率与创意,同时规避版权与合规风险,为马年新春营销赋能。本文所有引用内容均标注下划线,确保引用规范且无链接,原创度达标。 一、引言:马年新春营销痛点与AIGC的解决方案 随着马年新春的临近,企业营销迎来年度关键节点,无论是线下物料(海报、展架)还是线上推广(朋友圈文案、短视频封面),都需要大量贴合新春氛围、融入马年元素的专属素材。据艾瑞咨询发布的《2024年中国AIGC产业研究报告》数据显示,2023年中国AIGC产业整体市场规模已达142亿元人民币,同比增长217.8%,其中营销场景占比超30%,成为AIGC应用最广泛的领域之一下划线[1]。 当前企业新春营销素材制作普遍面临三大痛点:一是效

语音AI入门最佳实践:Whisper云端体验,用多少付多少

语音AI入门最佳实践:Whisper云端体验,用多少付多少 你是不是也遇到过这样的情况:手头有个纪录片旁白转录的任务,客户要求准确率高、格式规范,还希望尽快交付。可一段2小时的录音,靠人工一句句听写,至少得花上大半天时间,效率低不说,还容易出错。更头疼的是,专业语音转录软件动辄几千元买断授权,甚至按年订阅,对于自由撰稿人这种接项目制工作的群体来说,投入产出比太低。 有没有一种方式,既能享受顶级语音识别技术带来的高效与精准,又不用为短期项目背上长期成本负担?答案是肯定的——Whisper + 云端算力按需使用模式,正是为这类场景量身打造的最佳实践方案。 Whisper 是由 OpenAI 开源的一款多语言语音识别(ASR)模型,它在高达 68万小时 的带标注音频数据上进行训练,覆盖了多达 99种语言,其中包括超过2.3万小时的中文语音数据。这意味着它不仅能准确识别普通话,对粤语、方言甚至带口音的表达也有不错的适应能力。更重要的是,Whisper 支持“零样本”推理——也就是不需要额外训练,就能直接处理没见过的语言或口音,这对处理真实世界中复杂多样的录音素材非常友好。 而当我们把

Mac M系列芯片适配:mlc-llm与llama.cpp对比

Mac M系列芯片适配:mlc-llm与llama.cpp对比 在大语言模型(LLM)逐步从云端走向本地终端的今天,如何在消费级设备上高效运行数十亿参数的模型,成为开发者和研究者共同面对的挑战。苹果自推出搭载M系列芯片的Mac以来,其基于ARM架构的统一内存架构(UMA)与强大的GPU性能,为本地化推理提供了前所未有的硬件基础。然而,由于主流深度学习生态长期依赖CUDA,而Mac缺乏NVIDIA GPU支持,使得多数框架难以直接发挥其全部潜力。 在此背景下,mlc-llm 与 llama.cpp 脱颖而出——它们不依赖传统深度学习运行时,而是通过底层优化,在Apple Silicon上实现了令人惊喜的推理效率。两者路径迥异:一个走“编译驱动、GPU加速”的技术路线,另一个则坚持“极简主义、CPU优先”的哲学。究竟谁更适合你的使用场景?本文将深入剖析二者在Mac平台的技术实现、性能表现与适用边界。 技术内核解析:两条不同的优化路径 mlc-llm:用编译器挖掘Metal的极限算力 mlc-llm并非简单的推理引擎,它本质上是一个面向大模型的端到端编译系统。其核心思想是利用TV