Draw.io 官方 MCP 实测:AI 自动生成架构图,丝滑到离谱

Draw.io 官方 MCP 实测:AI 自动生成架构图,丝滑到离谱

最近绘图神器 draw.io 发布了官方 MCP Server。真是喜大普奔(喜闻乐见、大快人心、普天同庆、奔走相告)。

我们现在可以在 Cursor、Claude Desktop 等支持 MCP 的编辑器里让 draw.io 帮忙画图,画完后,它会直接弹出网页编辑器,我们可以基于已绘制的图进行再次编辑,体验非常酷。

接下来我们一起看看怎么使用它。

安装与配置

一、在 Cursor 中配置 MCP server:
  1. 打开 Cursor,进入 Settings → Cursor Settings → MCP(或直接 Cmd + Shift + J
  2. 点击 + Add new global MCP server,这会打开配置文件 ~/.cursor/mcp.json
  3. 填入:
{"mcpServers":{"drawio-mcp":{"command":"npx","args":["-y","@drawio/mcp"]}}}
  1. 保存后回到 MCP 设置页面,应该能看到 drawio-mcp 已列出,状态显示为绿色即表示连接成功。
提示:如果状态显示红色/失败,可以点旁边的刷新按钮重试。同样注意 npx 路径问题,必要时用完整路径替代。
二、在 Claude 添加 drawio-mcp
1)、在 Claude Mac 客户端中添加 MCP server 的步骤:
  1. 打开 Claude 桌面客户端,点击菜单栏 Claude → Settings → Developer → Edit Config
  2. 这会打开配置文件 claude_desktop_config.json,路径通常是:
    ~/Library/Application Support/Claude/claude_desktop_config.json
  3. 在文件中添加:
{ "mcpServers": { "drawio-mcp": { "command": "npx", "args": ["-y", "@drawio/mcp"] } } } 

如果已有其他 MCP server,把 "drawio-mcp": {...} 加到 mcpServers 对象里即可。

  1. 保存文件后重启 Claude 客户端
  2. 重启后在对话输入框左下角应该能看到 MCP 工具图标(🔨),点击可确认 drawio-mcp 的 tools 是否加载成功。
注意:确保你的系统已安装 Node.js 和 npm,因为 npx 依赖它们。在 M1 Mac 上如果用 nvm 管理 Node,可能需要把 command 改为 npx 的完整路径(which npx 查看),避免 Claude 找不到命令。
2)、Claude 网页端(claude.ai)目前不支持直接添加自定义 MCP server

MCP server 配置只支持以下客户端:

  • Claude 桌面客户端 — 通过 claude_desktop_config.json
  • Claude Code(CLI)— 通过 claude mcp add 命令
  • Cursor / Windsurf 等第三方 IDE

如果你想在网页端使用 draw.io 功能,有两个替代方案:

  1. 使用 Claude 桌面客户端:按之前的方法配置。
  2. 使用 Claude in Chrome 扩展:集成 drawio-mcp 工具,让扩展生成 draw.io 图表。比如告诉扩展你想画什么图,扩展可以直接调用 open_drawio_mermaidopen_drawio_xml 来生成。

实战:画一个 SSO 时序图

在 Cursor 或者 Claude 客户端中向 AI 发出命令:

使用 draw.io MCP 工具 open_drawio_mermaid 制作展示 SSO 流程的时序图

生成后,可以保存文档到 Google Drive。这样方便后续随时再次编辑。再也不用担心找不到历史编辑文件了。

draw.io MCP Server 技术原理与限制

核心功能与流程
  • draw.io MCP 工具将 AI 生成的 Mermaid/CSV/XML 逻辑转成 draw.io 专用链接,从而实现快速绘图
  • 绘图流程为用户发指令→AI生成结构化数据→工具压缩编码→浏览器打开可编辑 draw.io 页面
支持的核心转换模式
  • Mermaid 转图(open_drawio_mermaid):AI 写 Mermaid逻辑,draw.io 渲染编辑
  • CSV 转图(open_drawio_csv):适合组织架构等树状图,AI 处理人员关系生成
  • XML原生格式(open_drawio_xml):支持现成 draw.io XML 或AI 生成复杂图表
技术原理与限制
  • 实现原理为生成带压缩编码数据的 URL,本地浏览器解析,隐私性好
  • 存在 URL 长度限制,超复杂图表可能因 URL 过长无法打开

小结

draw.io 发布官方 MCP Server,支持在 Cursor、Claude 等编辑器中通过 AI 生成可编辑图表,覆盖 Mermaid/CSV/XML 模式,虽然存在 URL 长度限制但隐私性好,体现传统工具拥抱 AI Agent 生态的大趋势。

工欲善其事,必先利其器。
技术人员很有必要折腾一下这个工具。
花点时间把这个工具配置好了,一次配置,接下来的所有时间里都可以使用这个得心应手的好工具了。

尤其是经常绘各种图的架构师同学们,有了这个,简直不能再爽!

AI 时代已经到来,必须拥抱 AI! 个人,无论技术能力有多强,已经很难与 AI 的效率相比。必须充分利用 AI,让 AI 更多地为我们做事。这样才能如虎添翼。

参考:

  1. drawio-mcp
  2. 终于等到!Draw.io 官方发布 MCP,这体验丝滑得不像话!

2026.02.14 18:34
沪 · 汇金路KFC

Read more

AI从“动嘴”到“动手”:2026年,一只“小龙虾”如何重塑硅基生命的数字生存方式

引言:一场静默的革命 如果你回到2025年,问一个职场人:“你如何使用AI?”他大概率会告诉你:“我会把问题发给ChatBot,它给我一段文字建议,然后我复制粘贴,自己去操作软件、写代码、整理表格。”那时的AI,像是一位博学但手无缚鸡之力的“顾问”,它拥有无穷的知识,却无法替你按下任何一个回车键。 然而,当时针拨向2026年的春天,一切发生了翻天覆地的变化。在科技圈、在写字楼、甚至在大学生的宿舍里,人们口中高频出现的词汇不再是单纯的“大模型”,而是一只红色的“小龙虾”。 这并非夜宵摊上的麻辣美味,而是代号 OpenClaw 的开源人工智能体(AI Agent)框架。它的出现,标志着人类与机器的协作模式完成了一次历史性的跨越:从“咨询顾问模式”彻底转向了“数字员工模式”。没出小龙虾之前,是“你提需求,AI给答案,你自己做”;有了小龙虾之后,是“你提需求,小龙虾帮你做完”。 这不仅仅是一个工具的迭代,

ollama+Llama-3.2-3B实战:快速体验多语言文本生成

ollama+Llama-3.2-3B实战:快速体验多语言文本生成 1. 为什么选Llama-3.2-3B?轻量、多语、开箱即用 你有没有试过这样的场景:想快速验证一个想法,却卡在模型部署上——环境配置半天、显存不够、依赖冲突、GPU驱动报错……最后连第一行输出都没看到,热情就凉了大半。 Llama-3.2-3B + Ollama 的组合,就是为解决这个问题而生的。 它不是动辄十几GB参数、需要A100集群才能跑的“巨无霸”,而是一个真正能塞进普通笔记本、MacBook甚至云服务器入门款里的“实干派”。3B参数规模意味着: * 启动快(Ollama加载通常在5秒内完成) * 占用低(运行时内存约2.8GB,显存需求可选CPU或GPU) * 支持广(原生覆盖英语、中文、法语、西班牙语、葡萄牙语、俄语、阿拉伯语、日语、韩语、越南语等20+语言) * 对话强(

Llama-3.2V-11B-cot快速部署:无需conda环境,纯pip+torch一键启动教程

Llama-3.2V-11B-cot快速部署:无需conda环境,纯pip+torch一键启动教程 你是不是对能看懂图片、还能像人一样一步步推理的AI模型感到好奇?今天要介绍的Llama-3.2V-11B-cot就是这样一个模型。它能分析图片内容,然后通过“总结→描述→推理→结论”的步骤,给出有逻辑的回答。 听起来很酷,但部署起来会不会很麻烦?需要装conda、配环境、处理各种依赖冲突?别担心,这篇教程就是为你准备的。我们将用最简单的方式——只用pip和torch,带你从零开始,在几分钟内把这个强大的视觉推理模型跑起来。 1. 准备工作:理清思路,轻装上阵 在开始敲命令之前,我们先搞清楚两件事:我们要做什么,以及为什么这个方法简单。 1.1 学习目标:今天你能收获什么 看完这篇教程,你将能够: 1. 在自己的电脑或服务器上,成功启动Llama-3.2V-11B-cot的Web服务。 2. 通过浏览器上传一张图片,并向模型提问,亲眼看到它如何进行一步步的推理。

【Stable Diffusion 3.5 FP8】4、定制化开发:LoRA 微调 Stable Diffusion 3.5 FP8 实现专属风格生成

【Stable Diffusion 3.5 FP8】4、定制化开发:LoRA 微调 Stable Diffusion 3.5 FP8 实现专属风格生成

定制化开发:LoRA 微调 Stable Diffusion 3.5 FP8 实现专属风格生成 在掌握了 Stable Diffusion 3.5 FP8(以下简称 SD 3.5 FP8)的调优技巧后,很多开发者会追求更高的个性化需求——比如让模型专门生成某类风格(如二次元、赛博朋克)、特定对象(如品牌LOGO、产品原型)或模仿某位艺术家的画风。 而直接训练完整模型不仅需要海量数据和高端硬件,还会耗费大量时间,显然不符合 FP8 模型“高效易用”的核心定位。 LoRA(Low-Rank Adaptation,低秩适配)技术的出现完美解决了这一问题。作为一种轻量级微调方法,它通过冻结原模型参数,仅训练少量低秩矩阵,就能实现精准的风格定制,且训练成本极低——在消费级 GPU(如 RTX