Trae IDE评测体验:通过 MCP Server - Figma AI Bridge 一键将 Figma 转为前端代码

Trae IDE评测体验:通过 MCP Server - Figma AI Bridge 一键将 Figma 转为前端代码

Trae IDE评测体验:通过 MCP Server - Figma AI Bridge 一键将 Figma 转为前端代码

在现代前端开发中,从设计稿到可用页面的交付往往需要大量重复劳动:切图、手写样式、布局调整……而借助 MCP Server - Figma AI Bridge,我们可以将 Figma 设计稿自动转换成整洁的 HTML/CSS/JS 代码,并立即生成可预览的网页。一键化、傻瓜式操作,让设计交付效率跃升。

先下载 Trae IDE,让我们一起开始吧!
[立即免费获取 Trae]:https://trae.ai
Trae IDE 下载页面预览

演示环境

本文测试使用的系统环境如下:

  • Trae IDE 版本:0.5.5
  • macOS 版本:14.7
  • Node.js 版本:20.19.1
  • npx 版本:10.9.2
  • Python 版本:3.13.3
  • uvx 版本:0.6.16

一、安装并启动 Trae IDE

Trae IDE 与 AI 深度集成,提供智能问答、代码自动补全及基于 Agent 的 AI 自动编程能力。首次使用时,前往官网下载并安装:

  1. 访问官网下载页面并选择对应平台的安装包。
  2. 双击运行安装程序,按提示完成安装。
  3. 启动 Trae IDE,初次打开会看到欢迎页及快速入门指南。

二、配置 MCP Server 运行环境

为了让 MCP Server 正常工作,需要安装 Node.js、npx、Python 及 uvx 工具。

1. 打开 Trae IDE 终端

  • 启动 Trae IDE。
  • 在顶部菜单栏依次点击 终端 > 新建终端,打开内置命令行。
在 Trae IDE 中打开终端


新建终端示例

2. 安装 Python 与 uvx

  1. 前往 Python 官网 下载并安装 Python 3.8+。
  2. 安装 uv 工具集(包含 uvx):

验证 uvx 安装:

uvx --version 

执行环境初始化:

source$HOME/.local/bin/env 

Windows (PowerShell)

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

macOS / Linux

curl -LsSf https://astral.sh/uv/install.sh |sh

在终端验证安装:

python3 --version 

3. 安装 Node.js 与 npx

  1. 前往 Node.js 官网 下载并安装 Node.js 18+。
  2. 若看到类似 v18.x.x10.x.x 的版本号,则说明安装成功;重启 Trae IDE 以使新安装生效。

在终端验证安装:

node -v npx -v 

三、获取 Figma Access Token

配置 Figma AI Bridge 时需要填写你的 Figma Personal Access Token,具体获取流程如下:

点击 Generate token,复制生成的 Token 字符串备用。

生成的 Token 示例

在弹窗中输入 Token 名称、选择有效期并配置权限(可参考下表):

Token 权限配置示例

下滑至 Personal access tokens 区域,点击 Generate new token

Generate new token

在顶部菜单中选择 Security

Security 选项

登录 Figma,在左上角点击用户头像,选择 Settings

Figma Settings

四、在 Trae IDE 中添加 MCP Server - Figma AI Bridge

将之前复制的 Figma Personal Access Token 粘贴到输入框,点击 确认

输入 Access Token

在列表中找到 Figma AI Bridge,点击右侧 + 按钮。

选择 Figma AI Bridge

MCP 面板点击 + 添加 MCP Servers(或已添加时右侧的 + 添加)。

添加 MCP Servers

打开 Trae IDE,点击 AI 对话框右上角的 设置 图标,选择 MCP

MCP 入口

此时,MCP Server - Figma AI Bridge 已成功配置,并已自动添加到 “Builder with MCP” 智能体中。


五、创建自定义智能体并绑定 Figma AI Bridge

智能体(Agent)是你在不同场景下的 AI 助手。自定义智能体后,你可以灵活配置提示词和工具集,快速完成复杂任务。

  1. 在配置面板中:
    • (可选)上传智能体头像。
    • 输入智能体名称,例如:“Figma 助手”。
    • 工具-MCP 部分仅勾选 Figma AI Bridge
    • 工具-内置 部分勾选:
      • 文件系统(File System)
      • 终端(Terminal)
      • 联网搜索(Web Search)
  2. 点击 创建,完成自定义智能体的创建。

预览(Preview)
配置完成后示例:

智能体配置示例

(可选)填写提示词,示例:

“根据用户提供的 Figma 链接,精准还原 UI 设计,生成响应式 HTML 前端页面代码。结构清晰,视觉细节与设计稿高度一致,禁止擅自修改设计内容。”

点击 + 创建智能体

创建智能体

在 AI 对话框右上角点击 设置,选择 智能体

智能体入口

六、一键生成前端页面

  1. 在本地新建一个空文件夹,在 Trae IDE 中打开该文件夹。
  2. 在 AI 对话框右下角选择模型(本文以 DeepSeek-V3-0324 为例)。
  3. 生成完成后,双击输出的 index.html,在浏览器中预览最终效果。
  4. 若需调整,可在 AI 对话框继续与智能体互动,优化样式或交互,直至满意为止。

智能体开始调用 Figma AI Bridge,读取设计稿并自动生成前端项目文件夹和 index.html。以下为生成过程示例:

生成过程示例

在 Trae IDE AI 对话输入框中粘贴链接,并附上需求说明,例如:

“请严格按照我提供的 Figma 链接内容生成 HTML 前端页面,UI 要严格还原设计稿,需要实现响应式设计。”

打开 Figma 设计稿页面,选中目标画板,右键 → Copy/Paste as > Copy link to selection,复制链接。

复制 Figma 链接

附:Figma AI Bridge 支持能力

MCP Server - Figma AI Bridge 提供以下核心功能:

Figma AI Bridge 能力列表
  • 设计结构化解析:自动识别画板、组件、布局层级。
  • 样式映射:将 Figma 中的颜色、字体、间距等属性转成 CSS。
  • 响应式布局:根据设置自动生成媒体查询,支持多端适配。
  • 资源导出:自动导出切图、SVG、字体等静态资源。
  • 交互还原:根据原型中的交互描述生成简单的 JavaScript 逻辑。

结语

通过 Trae IDE 与 MCP Server - Figma AI Bridge 的结合,设计稿到代码的流程实现了高度自动化。无需手动切图、编写样式、配置打包,一行命令即可完成初版页面交付。无论是快速打样,还是持续迭代,都能极大提升前端开发效率。试试看,将你的下一个 Figma 项目交给 AI 助手完成吧!


Read more

SmallThinker-3B效果实测:在无GPU笔记本上用llama.cpp量化版流畅运行

SmallThinker-3B效果实测:在无GPU笔记本上用llama.cpp量化版流畅运行 1. 引言:当大模型遇见小设备 你有没有想过,在自己的旧笔记本上,也能流畅地运行一个功能强大的AI助手?不需要昂贵的独立显卡,不需要复杂的云端部署,就在你手边这台可能已经用了好几年的电脑上。 今天要聊的SmallThinker-3B-Preview,就是这样一个“小身材大智慧”的模型。它基于Qwen2.5-3b-Instruct微调而来,专门为资源有限的场景设计。最吸引人的是,通过llama.cpp的量化技术,它能在没有GPU的普通笔记本上流畅运行。 我特意找了一台2019年的老款MacBook Pro(Intel处理器,16GB内存),来测试这个模型的真实表现。结果如何?让我带你一起看看。 2. SmallThinker-3B是什么? 2.1 模型背景与定位 SmallThinker-3B-Preview,名字就很有意思——“小思考者”。它确实很小,参数量只有30亿,但在特定场景下,它的思考能力可不小。 这个模型主要针对两个场景设计: 边缘部署:体积小意味着它能在资源受

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者 📖 阅读时长:约8分钟 🎯 适合人群:想了解国产大模型发展、或百度AI生态的用户 💡 你将学到:文心一言是什么、背后的技术、核心能力、使用方法 一、文心一言的"出生"背景 2023年3月,就在ChatGPT席卷全球的浪潮里,百度率先发布了国内第一个对标ChatGPT的大模型产品——文心一言(英文名:ERNIE Bot)。 这一步棋走得很早,也很大胆。当时百度创始人李彦宏亲自站台发布,引发了全社会对"国产AI能否追上ChatGPT"的大讨论。 时间轴: 2022.11 ChatGPT 发布,震惊世界 2023.03 文心一言 发布,中国第一个 2023.10 文心大模型4.

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招 目标读者:希望在 VSCode/Zed 编辑器中直接复用 Claude Code 强大本地能力的开发者、DevOps 工程师、AI 工具流搭建者。 核心价值:通过自动化映射机制,打破 Claude Code CLI 与编辑器 Copilot 之间的"生殖隔离",实现一套 Skills/Agents 双端复用。 阅读时间:8 分钟 引言 你是否遇到过这种割裂的体验:在终端里,Claude Code 配置了强大的 tech-blog 技能,能一键生成高质量博客;配置了 code-review

如何快速部署Whisper-medium.en:开发者的终极语音识别配置指南

如何快速部署Whisper-medium.en:开发者的终极语音识别配置指南 【免费下载链接】whisper-medium.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-medium.en 在当今数字化浪潮中,精准的英语语音转文字技术正成为智能应用的核心竞争力。OpenAI推出的Whisper-medium.en模型凭借其769M参数规模和卓越的识别能力,为开发者提供了开箱即用的语音识别解决方案。 🚀 一键部署:从零到一的快速启动方案 获取项目代码只需简单执行: git clone https://gitcode.com/hf_mirrors/openai/whisper-medium.en 配置环境依赖: pip install transformers datasets torch soundfile 核心代码实现仅需四步: from transformers import WhisperProcessor, WhisperForConditionalGeneration import