Trae AI 全新功能 SSHremote助力开发者个人产品打造,高效构建全栈应用

Trae AI 全新功能 SSHremote助力开发者个人产品打造,高效构建全栈应用
前言

在快速迭代的AI时代,程序员当仁不让的应该是一个弄潮儿,那么问题来了,AI可以给程序员带来什么?有些懂营销的利用信息差卖课挣钱,有产品出生的朋友,抓住AI机会找人做了一个AI小程序,产生了不错的流水。作为一名开发,AI除了智能帮助我们生成一些代码,还可以帮助我们做什么?十年前,有很多“就缺一名程序员”的项目,如今有了AI,一个程序员通过AI加持如何更进一步打造属于我们的作品?本文通过AI IDE帮助我们快速成为一名全栈工程师,快速打造属于我们自己的作品,做一个有作品的程序员。

1. Trae 介绍

在24年的时候随着AI的加持出现了Copilot为代表的助手类型的辅助代码工具,当时在写N-API接口时被一坨坨模版话的代码折磨到头疼,有了助手加持,这些重复代码被精确的生成出来,极大的提升了效率。

Trae 是什么?

在25年,随着人们对AI的进一步探索,出现了更强大的代码工具,以Trae为例,用官方的话说就是:“Trae 是国内首个 AI IDE,深度理解中文开发场景。AI 高度集成于 IDE 环境之中,为你带来比 AI 插件更加流畅、准确、优质的开发体验。”

一句话表达就是:**集成了AI的IDE”。下面是Trae最新版本的链接:http://trae.com.cn?utm_source=content&utm_medium=ZEEKLOG&utm_campaign=qingkouwei3​​​​​​​

为什么选择 Trae?

Trae有以下几个特点:

  • 智能:“Trae 基于人与 AI 协作开发的理念而打造。无论是人还是 AI , Trae 让恰当的对象,在恰当的时间接管工作,确保每一段代码都是人与 AI 共创的最优结果,为你带来更加高效、优质的开发体验。”
  • 全面:不仅可以写代码,还可以创建工程。
  • 强大:可以深入理解代码仓库,更准确的识别我们的需求。

当然,其他插件方式有的实时续写,Trae依赖有。此外,Trae更吸引我的地方是免费,免费,免费,而且支持众多模型,现在最新版本支持自定义模型,最火爆最强大的模型DeepSeekR1和DeepSeek V3也是免费:

适用于哪些开发场景?

场景方面,以我实际使用的几个例子来介绍。

接触到Trae后第一时间让它帮我写了一个解梦的小程序,我将设计稿传入后,输入提示词,很快就帮我把完整代码生成出来了,有些需要调整的通过多轮对话逐步调整成可以完全匹配功能的代码。

后来接到一个需求,要根据一个三方Asr的协议文档封装一个ASR的SDK,工作倒是没有难度,就是繁琐,得不停地写写写,而且参数还贼多,后面灵机一动把文档地址发给它,一会功夫都实现了,后面为了和原有接口保持一致,通过提示词让它以实现基类的方式实现了功能。

封装完Asr SDK后,想要看看ASR服务的效果,找来测试集,把文档丢进去,让Trae生成一个Python脚本实现ASR协议,并且让Trae解读测试集配置文件生成测试集的最终结果和效果数据。

图生代码、协议生成代码,总结下来就是无所不能,关键在你敢不敢想,会不会和AI沟通。

2. Remote-SSH 概述

3月12日随手更新了下Trae,升级到1.1.0版本后看到更新记录:

上线了Remote SSH,支持链接Debian 11+/Ubuntu 20+ 远程主机。 

Remote-SSH 是什么?

看到新鲜东西搞不懂,先看文档:

远程资源管理功能(Remote SSH)提供了在本地 PC 上直接访问和操作远程主机文件的能力。通过这一功能,你无需在本地 PC 上存储远程主机上的源代码,即可充分利用 Trae 的全部功能(包括代码补全、导航、调试、AI 辅助等)来管理远程主机上的文件。

官方流程图如下:

直观的讲就是可以借助本机AI IDE的能力,在远程服务器写代码,而不用在通过版本管理或者其他工具进行代码的同步。

Remote-SSH 如何改变开发方式?

Remote SSH可以做什么呢?想象一下,你是一个服务端开发,公司有你的开发机,你要用本地电脑开发完,部署到开发机,要么通过git同步代码,要么通过ssh链接后,使用vim来编辑少量的代码,现在这些都不用了,使用Remote SSH直接操作开发机代码文件,而且还带着AI功能。

主要功能和优势

有了Remote SSH后,我们可以快捷的进行远程开发,省去了部署代码的步骤,再也不用担心代码不一致或者环境不一致导致的各种问题了。

3. Remote-SSH 适用场景
  • 远程服务器开发 ,在开发服务器程序或者网页前端程序时可以直接基于开发机开发,通过Remote-SSH链接通过可见即可得的方式直接将代码写入到开发机,直接编译运行。
  • 适用于低配置设备,做过移动端开发的都知道,没有个好配置根本开发不起来,编译一个大点的工程可能一次都要半个小时,有了Remote SSH,我们只需要一台普通配置的电脑,连一台配置好一点的服务器就可以了。
  • 适用于团队协作,多人共享统一环境,不同的开发者负责不同模块

4. 项目实战:基于 Remote-SSH 和 Trae 构建智能备忘录

介绍完Trae及新的功能Remote-SSH后,接下来开始我们的项目实战之旅,使用Trae的AI功能和Remote-SSH特性,以开发Web项目场景为例,在远程开发机直接开发我们的全栈项目。项目基于springboot + vue + mysql+flutter 实现后端服务、后台页面、前端页面、移动端App的全端功能。

4.1 项目介绍:智能备忘录

项目实现一个很实用的功能,一般的备忘录中我们要记录一些待办,每次都需要我们手动输入,比如要出去旅行,要开车出远门,出去旅行,可能每次待办事项中的项目都是类似的,每次手动输入一方面和繁琐,一方面容易遗漏。

随着AI的成熟,能不能让AI帮我们完成这项功能,输入我们要去干什么,让它帮我们输出待办事项,我们确认后录入到我们的待办事项。

说干就干,我们实现从服务端登录、调用AI模型的功能,以及客户端输入要干什么,生成最终待办列表。

4.2 常规开发难点

在常规开发中,不仅需要前后端至少两个角色,还有前后端开发联调的时间成本,环境管理困难,在开发过程中本地调试消耗资源大,开发效率低。

4.3 云端环境搭建 - 阿里云

接下来配置云端环境,通过Trae 的Remote-SSH工具,输入阿里云机器ECS服务器地址:ssh [email protected] -A:

接着会有连接中过程:

接着提示输入密码:

输入完成选择开发项目的文件夹,输入我们项目文件夹:

4.4 Trae 服务端开发

连接成功后,使用Builder模式输入提示词让Trae帮助我们生成工程项目:

可以看到生成的代码直接保存在服务器端:

待代码全部生成后直接编译运行后就可以开始进行接口调用,编译时需要安装依赖,会自动生成命令等待用户执行,执行过程也直接在服务器:

有报错也会自动生成修复建议的代码和命令:

4.5 前端、移动端开发

移动端使用跨平台的Flutter,输入提示词运行让Builder帮助我们生成项目:

生成项目过程中Builder会帮助我们生成构建环境的命令,我们直接运行即可,运行完成后直接编译构建就可以输出我们需要的产物。由于服务端资源配置问题,移动端项目不多展开。

4.6 前端与配置后台开发

前端Web端和后台配置页面使用Vue,输入提示词,Trae帮助我们生成初始化脚本,如果没有环境配置,Trae Builder还会帮助我们生成配置环境命令,这些都直接在服务端生成,不需要我们本地配置一波,再云端配置一波,节省投入环境配置的精力。

下面是生成前端页面效果:

Trae 支持将远程主机的端口转发到本地 PC,我们可以在终端中配置,直接用本地地址就可以访问远程服务页面:

5. 经验总结:Remote-SSH 的实用技巧

本地运行的好好的,到了通过Remote-SSH连接后就报错了:

官方文档提示:

如果 Chat/Builder 模式提示 ”客户端异常,请稍后重试“,可以尝试以下解决方法:

  • 方法一:检查电脑中是否安装了 Astrill VPN。如果已安装,请卸载该应用并重启电脑,之后再重新启动 Trae。
  • 方法二:如果系统缺少必要的文件,也可能导致该错误。请下载并安装 Microsoft Visual C++ 2015 - 2022 Redistributable,然后重新启动 Trae

我这是MacOS,不是这个原因。最后仔细阅读发现远程系统是CentOS,而Remote-SSH支持的云端系统为:Debian 11+、Ubuntu 20.04+

大家也注意这个问题,小心踩坑。

另一方面不要一次性让它干很多事情,否则会遇到服务端断开连接的问题:

可以每次都只让它生成服务端代码,完成后再继续生成前端、移动端项目,这样可以避免连接失败断开问题。

6. 总结:Remote-SSH 不止是工具,而是一场开发革命

在 AI 时代,程序员借助 AI 工具能够实现更高效、更全面的开发。Trae 作为国内首个深度理解中文开发场景的 AI IDE,集成了强大的 AI 功能,为开发者提供了智能、全面且免费的开发体验。而 Remote-SSH 功能的推出,更是为开发模式带来了革命性的变化。

  1. 重新定义开发模式,提高效率:Remote-SSH 让开发者在本地 PC 上直接访问和操作远程主机文件,无需本地存储远程源代码,即可利用 Trae 的全部功能开发,极大地提高了开发效率。
  2. 降低硬件门槛,实现灵活开发:Remote-SSH 为移动端开发等对本地设备配置要求较高的场景提供了解决方案,开发者只需普通配置电脑连接较好服务器即可开发,实现开发灵活性和便捷性。
  3. 提升团队协作,实现全栈一体化开发:Remote-SSH 具有显著的团队协作优势,多人共享统一环境实时协作,通过 Trae 的 AI 功能和 Remote-SSH 特性,团队可以快速构建全栈应用,提升协作效率和开发质量。
  4. 未来展望:Remote-SSH 结合更多技术,拓展开发边界:Remote-SSH 将与云计算、边缘计算等技术融合,实现更强大的远程开发能力,并与 AI 模型深度整合,发挥更大作用,拓展开发边界。

总之,Remote-SSH 不仅仅是一个工具,它正在引领一场开发模式的革命,已经在开发领域展现了巨大的价值,未来将推动整个开发行业迈向新的高度。

Read more

AIGC 应用工程师、人工智能训练工程师、人工智能算法工程师、人工智能标注工程师、AI智能体应用工程师、生成式人工智能应用工程师

(一)报考条件:年满18周岁 (二)报名及考试流程  1.  学生填写报名表:姓名、性别、身份证号、电话号码、所报证书名称、级别,务必保证信息正确。 2. 使用电子照片要求: 背景颜色:蓝色、白色; 3. 拿证周期:3-4个月 人工智能应用工程师(高级)课程体系解读 课程体系围绕人工智能应用工程师(高级) 职业技能培养,分 6 大阶段,覆盖环境搭建、数据处理、核心算法、实战应用、效果测试与职业考核全流程,是从基础到高阶的完整 AI 应用开发学习路径。 一、阶段核心内容与能力目标 1. 人工智能环境管理 * 核心课程:环境与存储系统配置 * 知识模块:Python/Spark 环境搭建、虚拟机与

DeepSeek-R1-Distill-Llama-8B参数详解:LoRA微调适配、上下文长度扩展与KV Cache优化

DeepSeek-R1-Distill-Llama-8B参数详解:LoRA微调适配、上下文长度扩展与KV Cache优化 1. 模型定位与核心价值 DeepSeek-R1-Distill-Llama-8B不是一款普通的小尺寸语言模型,而是一次精准的“能力浓缩”实践——它把DeepSeek-R1在数学推理、代码生成和复杂逻辑任务上的扎实表现,通过知识蒸馏技术,高效迁移到Llama架构的8B参数量级上。对开发者而言,这意味着:不用牺牲太多性能,就能获得轻量、可部署、易定制的推理能力。 很多人会疑惑:为什么选Llama架构做蒸馏?答案很实际:Llama生态成熟、工具链完善、社区支持丰富。相比Qwen蒸馏系列(如32B版本),Llama-8B版本在体积和速度上更具优势;相比原生Llama-3-8B,它又继承了DeepSeek-R1经过强化学习锤炼出的推理结构偏好——比如更长的思维链展开、更稳定的多步推导、更少的无意义重复。这不是简单地“换壳”,而是把高阶推理能力“编译”进一个更友好的运行时环境里。 你不需要从零训练一个大模型,也不必为部署o1-mini级别的模型准备A100集群。De

我的第一部AIGC电影《编钟》制作幕后

我的第一部AIGC电影《编钟》制作幕后

当今时代,AI已经能制作一些高质量的电影片段。 我在前文就介绍过AIGC创作的一个标准工作流,并计划在两个月内完成一部5分钟的AI微电影。 如今,Seedance2.0这款模型彻底改变了工作流程,并将原定计划2个月的时间,压缩成了两天。 目前,该片参与了B站最近举办的视频创作大赛,参加的是三体赛道。 视频链接:https://www.bilibili.com/video/BV11acizcEjR 故事梗概 《编钟》讲述在二向箔打击地球前最后24小时,月球转运站工程师陈末得知航道封锁、末日将至,毅然驾驶一架濒临报废的穿梭机逆流返航,只为兑现对盲女小雅的承诺——带她去听两千年前的编钟之声。 城市在恐慌与崩塌中走向终结,空间开始二维化,高楼化作平面残影;陈末穿越混乱,将女儿带入空无一人的博物馆,在老守夜人的引领下敲响曾侯乙编钟。 浑厚钟声穿透濒毁的天地,小雅在声音中“看见”金色的高音、深蓝的低音与绿色的中音,完成了关于“声音颜色”的愿望。 当最后一声钟鸣与二维浪潮同时降临,地球在二向箔的打击下,彻底压缩成二维平面,人类文明的火种也随声音为载体,向外太空传播。 制作复盘

GitHub热门项目推荐:Stable Diffusion 3.5 FP8文生图模型实战解析

GitHub热门项目推荐:Stable Diffusion 3.5 FP8文生图模型实战解析 在AIGC(生成式人工智能)浪潮席卷全球的今天,图像生成技术已从实验室走向千行百业。无论是设计师快速出稿、游戏公司批量制作素材,还是社交媒体上的AI艺术创作,Stable Diffusion 都已成为开源文生图领域的“标配”。然而,随着模型能力不断增强,其对硬件资源的“胃口”也越来越大——动辄16GB以上的显存需求,让许多开发者和中小企业望而却步。 正是在这种背景下,Stability AI 推出的 Stable Diffusion 3.5 FP8 版本,像一场及时雨般降临GitHub社区。它不是简单的性能微调,而是一次面向生产落地的深度优化:通过引入前沿的 FP8 低精度量化技术,在几乎不牺牲画质的前提下,将显存占用降低近40%,推理速度提升超过30%。这一版本迅速成为开发者部署私有化AI绘画服务的新宠,相关镜像在Hugging Face和GitHub上持续走红。 那么,FP8究竟是什么?它是如何做到“瘦身不减质”