【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

        在人工智能技术迅猛发展的今天,Anthropic 的 Claude 系列模型,Openai的GPT系列模型,Google的Gemini系列因其卓越的推理能力、代码生成和长文本处理技术,已成为全球开发者构建智能应用的重要选择。然而,国内开发者在直接调用官方模型时,普遍面临网络延迟高、访问不稳定、支付繁琐等难题。此帖子为记录我配置TRAE 软件时,配置的详细步骤,以及接入Claude ,GPT,Gemini等大模型过程。(Tips:后续发现Vscode配置也是同流程,也可以进行此帖子参考)

1.安装TRAE

         访问 Trae AI 官网,选择适合自己电脑操作系统进行下载,本文以博主的Windows系统作为举例。

        (国内版官网)https://www.trae.com.cn/

        (国际版官网)https://www.trae.ai/

2.配置TRAE

选择语言(中文/英文)和主题(暗色/亮色/深蓝)

根据需要导入现有编辑器设置(可选)

如果之前使用过 VS Code ,可以一键导入配置

点击从 VS Code 导入" 导入"按钮

系统会自动导入插件、IDE 设置、快捷键设置等信息

如需全新开始,可选择跳过即可

然后添加命令行(可选)

为方便在终端中使用 Trae:

点击"安装 trae 命令"按钮

安装后可在终端使用以下命令:

trae:快速唤起 Trae

trae my-react-app:在 Trae 中打开指定项目

如果不需要可以直接点击跳过即可。 成功后进入TRAE主界面。

进入TRAE的扩展商店搜索Cline进行安装下载。

3.API Key与URL地址的获取

要想在TRAE上正确使用各类大模型我们需要购买官方平台提供的API或者第三方提供的API。

通过对比价格,稳定性,速度,三方面后,我决定选择的第三方魔芋api平台来获取API key。

点击链接前往api平台👉https://www.moyu.info/register?aff=g2d7

使用手机号码或者邮箱来进行账号注册。

注册成功后登录进入【令牌管理】

配置完成后可以使用新配置的令牌或者,初始平台生成的令牌。

返回TRAE的配置地方,填写好相关URL地址->https://www.moyu.info, 平台上复制的api key,

然后Model ID 要去平台复制。(模型广场里面每个模型右上角有复制按钮)

4.接入GPT系列或者Gemini系列模型

安装好后,打开侧边的Cline应用。

勾选第三个[Bring my own API Key] 确定,进入api配置界面。

使用Gemini和GPT模型需要注意不要选择错了 API Provider!!!

保存后,回去主页面测试一下,正常回复,即为成功!!!!

5.接入Claude系列模型

TRAE如果接入Claude系列模型会比较复杂,摸索了许久,最后整理如下。

所以我们要先进行Claude Code的下载以及配置。

Claude Code 安装教程

1. 环境安装

1.1 Node.js 环境安装

  1. 打开浏览器访问 https://nodejs.org/
  2. 点击 "LTS" 版本进行下载(推荐长期支持版本)
  3. 下载完成后双击 .msi 文件
  4. 按照安装向导完成安装,一直 Next 保持默认设置即可

                按下 Win + X 组合键,选择 "终端管理员" 或 "Windows PowerShell (管理员)" 打开         PowerShell,输入以下命令:

node --version npm --version

如果显示版本号,说明安装成功。

1.2 安装 Git Bash

下载并安装 Git for Windows:

  1. 访问 https://git-scm.com/downloads/win
  2. 点击 "Download for Windows" 下载安装包
  3. 运行下载的 .exe 安装文件
  4. 在安装过程中保持默认设置,直接点击 "Next" 完成安装

安装完成后验证 Git Bash 安装,打开 Git Bash 输入以下命令验证:

git --version

2. 安装 配置Claude Code

打开 PowerShell,运行以下命令:

npm install -g @anthropic-ai/claude-code 

安装完成后若出现 Setup notes 提示,运行以下命令:

[Environment]::SetEnvironmentVariable('Path', ([Environment]::GetEnvironmentVariable('Path','User') + ";$HOME\.local\bin"), 'User')

安装完成后输入以下命令查看是否安装成功:

claude --version

安装成功后配置环境变量,在 PowerShell 输入以下命令:

[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "API 密钥", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "平台地址", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "默认 claude 模型", "User") 

(密钥是填写平台上复制的,平台地址是:https://www.moyu.info,模型名称也要去平台上复制要用的Claude模型)

设置完成后关闭当前 PowerShell,重新打开一个 PowerShell 界面,检查是否配置成功:

echo $env:ANTHROPIC_AUTH_TOKEN echo $env:ANTHROPIC_BASE_URL echo $env:ANTHROPIC_MODEL

显示这样即为安装配置成功!!!

3. 在TRAE上配置Claude Code 插件

在TRAE上扩展商店上搜索Claude Code for VS Code 进行下载。

下载完成后点击左边区域的Claude按钮启动。

然后就会自动打开对话框的了,图示为配置成功展示。我配置是用(Claude Sonnet 4.6)。

6.总结

这次配置过程还是颇为复杂的,但收获良多。在VScode上此教程也是通用的,也可以进行对照参考。

Read more

CVPR 2026 Oral实测|YOLO-DRONE:无人机低空巡检的“性能天花板”,小目标召回率狂升39%(清华团队力作,电力部署实操全解析)

CVPR 2026 Oral实测|YOLO-DRONE:无人机低空巡检的“性能天花板”,小目标召回率狂升39%(清华团队力作,电力部署实操全解析)

前言:作为长期深耕无人机计算机视觉落地的算法工程师,我始终认为,无人机低空巡检场景的核心痛点,从来不是“模型精度多高”,而是“能否适配复杂飞行工况下的实战需求”。无论是电力巡检中的导线断股、绝缘子破损,还是安防巡检中的人员遗留、设备异常,这些目标往往尺寸极小、飞行过程中受风速扰动导致画面模糊、目标尺度动态变化,传统YOLO系列模型要么小目标漏检严重,要么抗扰动能力弱,要么实时性不足,根本无法满足工业级巡检的落地要求。 2026年CVPR大会上,清华大学团队提出的YOLO-DRONE模型惊艳全场,成功入选Oral(口头报告),成为低空巡检领域唯一入选的单阶段检测模型。这款专为无人机低空巡检设计的多尺度动态感知模型,创新性融合自适应尺度感知头(ASPH)与风速补偿特征对齐模块,彻底解决了传统模型“小目标漏检、抗扰动差、实时性不足”三大痛点——在UAV-DT无人机巡检专用数据集上,小目标召回率直接提升39%,同时支持1080p@45FPS实时处理,目前已正式部署于国内某省级电力巡检系统,实现输电线路的自动化巡检落地。 我第一时间获取了YOLO-DRONE的技术论文及开源代码,搭建了模拟无

OpenClaw 完整安装与配置文档(包含Minimax/deepseek模型接入、飞书机器人接入)

OpenClaw 完整安装与配置文档 文档说明:本文档适用于 Linux 系统(Debian/Ubuntu 系列),详细梳理 OpenClaw 从基础环境准备、核心程序安装,到模型配置(Minimax/DeepSeek)、飞书渠道对接的全流程,所有交互式配置选项完整呈现,步骤可直接复制执行,适配新手操作。 适用场景:OpenClaw 新手部署、企业内部飞书机器人对接、Minimax/DeepSeek 模型配置 前置说明: 1. 服务器需联网,确保能访问 GitHub、npm、飞书官网; 2. 操作全程使用终端命令行,建议使用远程工具(如 Xshell、Putty)连接服务器; 3. 复制命令时需完整复制,避免遗漏特殊符号; 4. 所有交互式配置选项均完整列出,按文档指引选择即可。 5. 拥有root用户/sudo权限。

Python 实现 AI 图像生成:调用 Stable Diffusion API 完整教程

Python 实现 AI 图像生成:调用 Stable Diffusion API 完整教程

从零开始学习使用 Python 调用 Stable Diffusion API 生成图像,涵盖本地部署、API 调用、ControlNet、图生图等进阶技巧。 1. 技术架构 Python 客户端 Stable Diffusion API 本地部署 SD WebUI / ComfyUI 云端 API Replicate / Stability AI Stable Diffusion 模型 文生图 txt2img 图生图 img2img 局部重绘 inpainting 超分辨率 upscale 输出图像 后处理管道 存储 本地/OSS 2. 图像生成方式对比 50%25%15%10%

介绍终身机器人学习的数据集LIBERO

介绍终身机器人学习的数据集LIBERO

1 LIBERO的作用 LIBERO是一个用于研究多任务和终身机器人学习中知识迁移的综合基准测试平台,LIBERO是基于robosuite框架构建的。它专注于机器人操作任务,这些任务需要两类知识: 1. 陈述性知识:关于物体和空间关系的知识 2. 程序性知识:关于运动和行为的知识 2 核心原理 任务生成与基准设计 LIBERO提供了一个程序化生成管道,原则上可以生成无限数量的操作任务。系统包含130个任务,分为四个任务套件,每个套件都有受控的分布偏移: * LIBERO-Spatial/Object/Goal:专注于特定类型知识的迁移 * LIBERO-100:包含需要迁移纠缠知识的100个操作任务 学习框架 系统采用模仿学习作为主要学习方法,因为任务使用稀疏奖励函数(任务完成时获得+1奖励)。LIBERO提供高质量的人类遥操作演示数据集用于训练。 算法与策略架构 LIBERO实现了三种视觉运动策略网络: * bc_rnn_policy:基于RNN的行为克隆策略 * bc_transformer_policy:基于Transformer的行为克隆策略