【Unity-AI开发篇】| Unity-MCP最新指南:让AI接管游戏开发

【Unity-AI开发篇】| Unity-MCP最新指南:让AI接管游戏开发
请添加图片描述

请添加图片描述

前言

  • 在人工智能飞速发展的今天,大语言模型早已不仅限于聊天和文本生成。
  • 它们开始能够使用工具,与环境进行交互,从而执行复杂任务。
  • 对于广大游戏开发者而言,这意味着一个全新的范式正在到来:用自然语言驱动Unity编辑器,让AI成为我们的结对编程伙伴。
  • 今天介绍一个工具Unity-MCP,将Unity接入AI开发游戏,解放我们的双手。

【Unity-AI开发篇】| Unity-MCP最新指南:让AI接管游戏开发

一、🧐 MCP是什么?

1.1 MCP介绍

MCP(Model Context Protocol 模型上下文协议)可以想象成一个 AI 助手的“通用USB-C接口” 。以前,每个AI应用要连接不同的数据源或工具,都需要专门的接口。

而MCP的目标是提供一个标准化的协议,让AI助手(比如Claude、Cursor)能够通过这个“通用接口”,方便、安全地连接并操控各种软件,其中就包括Unity编辑器。

一个典型的Unity MCP实现包含两部分 :

  1. Unity端插件:一个安装在你的Unity项目中的包,它在Unity编辑器里启动一个本地服务器(通常通过WebSocket或TCP),监听并执行来自AI助手的命令 。
  2. MCP客户端连接器:一个运行在你电脑上的小程序(通常通过Node.js或Python),它负责把你的AI助手(如Claude Desktop)和Unity编辑器连接起来。你在AI对话框里提需求,它就把需求转成Unity能理解的指令 。

可以把 Unity-MCP 想象成一个通用的翻译器和信使。它将 Unity 编辑器的复杂内部状态和功能,封装成一系列AI可以理解和调用的“工具”。
从此,AI不再只是“看”到你粘贴的代码片段,而是能真正“走进”你的项目,“看见”场景中的所有对象,“动手”修改属性甚至执行测试

有篇文章介绍MCP原理比较详细,感兴趣的可以看下:Unity MCP介绍及实现原理分析

1.2 为什么要配置MCP?

未连接MCP时,AI也可以直接在Unity中操作,但是连接MCP之后更安全和便捷。

MCP让AI从一个被动的“顾问”转变为一个主动的“协作者”的关键技术,Unity-MCP将这种变革性的能力带入了游戏开发领域。

在这里插入图片描述

1.3 效果展示

指令效果
在这里插入图片描述请添加图片描述

1.4 使用说明及下载

目前市面上有多款Unity-MCP工具,其基本作用都是给AI提供桥梁以使其可以直接在Unity中进行操作。

本文使用的是CoplayDev提供的unity-mcp,算是目前使用人数较多的MCP,截至目前有7k star左右,还在持续更新中。

工具地址介绍
unity-mcp(本文使用)https://github.com/CoplayDev/unity-mcpstar:7k,持续更新中
Unity-MCPhttps://github.com/IvanMurzak/Unity-MCPstar:1.2k
mcp-unityhttps://github.com/CoderGamester/mcp-unitystar:1.4k

二、🚀MCP安装步骤

2.1 前提条件

在使用MCP之前需要一些前提条件,否则没办法正常使用。

  • Git CLI:用于克隆服务器代码。下载 Git
  • Python:3.12 或更高版本。下载 Python
  • Unity Hub 及编辑器:2020.3 LTS 或更高版本。下载 Unity
  • uv(Python 包管理器):pip install uv # 或参考:https://docs.astral.sh/uv/getting-started/installation/
  • 支持MCP的AI客户端:(Claude Desktop、Cursor、VSCode等)

Git和Unity正常我们肯定都安装了,额外需要安装一下Python和uv即可。

2.2 安装 Unity-MCP包(桥接组件)

  1. Window > Package Manager(窗口 > 包管理器)。
  2. 点击 + -> Add package from git URL…(从 git URL 添加包…)。
  3. 输入:https://github.com/CoplayDev/unity-mcp.git?path=/MCPForUnity#main

点击 Add(添加)。此过程会自动将 MCP Server 安装到计算机上。

在这里插入图片描述
安装提示
若通过URL添加不上,可以先在github将项目下载,然后通过 Add package from git disk… 选中本地mcp文件夹中的 package.json 进行添加。

安装完之后可以通过 Window → MCP For Unity 打开相关面板。

在这里插入图片描述

2.2 MCP配置

如果前提条件都安装好了,打开Local Setup Window会如下所示:

在这里插入图片描述

打开 Toggle MCP Window ,配置MCP客户端,可根据自己情况进行选择。

这里使用Trae做示例,URL配置 http://localhost:8080 ,Client选择自己的IDE,这里选择Trae进行展示。

如下所示:

在这里插入图片描述

然后在MCP For Unity中点击Start Server开启,会弹出一个确认弹窗。

在这里插入图片描述

选择Start Server会开启一个终端弹窗,不要关掉该弹窗,关掉之后服务器会停掉,需要重新在Unity中点击Start Server开启。

在这里插入图片描述

这样Unity端的准备就都完成了,下面是去Trea(或其他IDE)中进行配置。

在这里插入图片描述

三、🎈Trae配置

3.1 添加MCP配置

点击右上角的 设置 -> MCP 选择手动添加。

在这里插入图片描述

添加以下MCP配置

{"mcpServers":{"unityMCP":{"url":"http://localhost:8080/mcp"}}}
在这里插入图片描述

打开该unityMCP即可看到其提供的功能支持。

在这里插入图片描述

3.2 创建一个智能体并添加Unity-MCP

打开 设置->智能体

在这里插入图片描述

可以选择创建一个智能体,也可以使用内置的 Build with MCP (默认使用配置的所有MCP)

在这里插入图片描述

创建新的智能体时,要勾选前面添加的unityMCP

在这里插入图片描述

此时在聊天框中选中刚创建的智能体就可以与其对话了。

在这里插入图片描述

如果默认选择的AI模型对话比较慢可以自行选择一个,Trea内置了很多免费模型可使用。如果已经买过其他模型,也可以直接进行添加模型使用。

在这里插入图片描述

3.3 使用AI开发功能

比如输入这样一段话:给我在场景中创建一个平面,然后添加一个角色,支持按WASD进行移动,移动速度为5,支持按空格键进行跳跃。

在这里插入图片描述

等待AI执行完毕,回到Unity运行游戏查看效果。

请添加图片描述

这样我们一行代码都没有写,也没有手动操作Unity,就完成了一个初级小功能。


总结

Unity-MCP 不仅仅是一个技术工具,它代表了一种人机协作的新范式。通过为AI提供标准化的“上下文”和“行动能力”,它极大地降低了游戏开发中从“想法”到“实现”之间的摩擦。

  • 对于开发者: Unity-MCP让我们从繁琐的重复性劳动中解放出来,能更专注于创意和设计。开发者将成为一名“AI指挥家”,用自然语言引导AI完成复杂的开发任务 。
  • 对于AI: Unity-MCP赋予了它“手”和“眼”,让它从一个知识库变成一个真正的“代理”,能够在复杂的Unity环境中感知、决策并行动。

尽管目前Unity官方也在开发如Muse等原生AI工具,但基于开放协议MCP的Unity-MCP提供了更高的灵活性和可选择性,让我们可以自由地选择最适合自己的AI模型和客户端 。

随着像Coplay这样的公司开始主导其开发,Unity-MCP的未来路线图更加清晰,它正在迅速成为现代AI驱动型游戏开发工作流中不可或缺的一环 。


🎬 博客主页:https://xiaoy.blog.ZEEKLOG.net🎥 本文由 呆呆敲代码的小Y 原创 🙉🎄 学习专栏推荐:Unity系统学习专栏🌲 游戏制作专栏推荐:游戏制作🌲Unity实战100例专栏推荐:Unity 实战100例 教程🏅 欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正!📆 未来很长,值得我们全力奔赴更美好的生活✨------------------❤️分割线❤️-------------------------
请添加图片描述
请添加图片描述
请添加图片描述
请添加图片描述

资料白嫖,技术互助

学习路线指引(点击解锁)知识定位人群定位
🧡 Unity系统学习专栏 入门级本专栏从Unity入门开始学习,快速达到Unity的入门水平
💛 Unity实战类项目 进阶级计划制作Unity的 100个实战案例!助你进入Unity世界,争取做最全的Unity原创博客大全。
❤️ 游戏制作专栏 难度偏高分享学习一些Unity成品的游戏Demo和其他语言的小游戏!
💚 游戏爱好者万人社区 互助/吹水数万人游戏爱好者社区,聊天互助,白嫖奖品
💙 Unity100个实用技能Unity查漏补缺针对一些Unity中经常用到的一些小知识和技能进行学习介绍,核心目的就是让我们能够快速学习Unity的知识以达到查漏补缺

Read more

Qwen3-32B开源可部署实践:Clawdbot Web网关+企业微信/钉钉集成指南

Qwen3-32B开源可部署实践:Clawdbot Web网关+企业微信/钉钉集成指南 1. 为什么需要这个组合:从大模型能力到办公场景落地 你有没有遇到过这样的情况:团队刚部署好Qwen3-32B,本地跑得飞快,但业务部门同事却说“用不上”?不是模型不好,而是缺了一座桥——一座把强大推理能力,稳稳接到日常办公入口的桥。 Clawdbot就是这座桥。它不替换你的Qwen3-32B,也不要求你改模型、重训练,而是用极轻量的方式,把Ollama托管的Qwen3-32B,变成企业微信里能直接@提问的AI助手,或是钉钉群中自动响应任务的智能协作者。 关键在于“直连Web网关”这四个字。它意味着:没有中间服务层、没有额外API网关、不走公网转发——Qwen3-32B的响应,从Ollama输出那一刻起,经由Clawdbot内置代理,毫秒级抵达聊天界面。这不是演示Demo,而是已在线上环境稳定运行超47天的真实部署方案。 本文不讲原理推导,不列参数表格,只聚焦三件事: 怎么让Qwen3-32B在Clawdbot里真正“活”起来; 怎么把Web网关8080端口安全、稳定地映射到18789对

语音交互实战:基于WebRTC与AI接口构建实时语音对话系统

语音交互实战:基于WebRTC与AI接口构建实时语音对话系统 随着大模型技术的爆发,人机交互的方式正在经历一场从“指令式”到“对话式”的深刻变革。传统的文本交互虽然成熟,但在移动场景、驾驶辅助或无障碍应用中,语音交互才是刚需。然而,很多开发者在尝试构建语音对话系统时,往往会陷入“能听会说但反应迟钝”的尴尬境地。 传统的语音交互流程通常是:录音 → 上传文件 → 后端识别(STT) → 大模型处理(LLM) → 语音合成(TTS) → 返回播放。这种“一问一答”的串行模式,导致用户说完话后需要等待数秒才能听到回复,这种延迟在实时对话场景下是致命的。 本文将探讨如何利用WebRTC技术与AI接口,构建一个低延迟、全双工的实时语音对话系统,打破交互延迟的壁垒。 核心技术架构:从串行到流式 要解决延迟问题,核心在于将“文件级”处理转变为“流式”处理。我们不再等待用户说完一句话才开始识别,而是边说边识别;不再等大模型生成完整回复才开始合成,而是边生成边合成。 1. WebRTC:

【硬核排查】挂了代里还是“裸奔”?深度解析 WebRTC 泄露与 Google 账号风控机制

【硬核排查】挂了代里还是“裸奔”?深度解析 WebRTC 泄露与 Google 账号风控机制

本文仅用于技术研究,禁止用于非法用途。 Author:枷锁 前言:一个“玄学”的网络故障 最近在进行网络环境配置时遇到了一个非常反直觉的现象: 我在本地开启了 戴笠,状态栏显示连接正常,访问Gemini毫无压力。但是,当我打开 ip138 或百度搜索 “IP” 时,显示的却依然是我本地的 ISP 真实 IP。更糟糕的是,我的 Google 账号开始频繁触发安全风控——要么是登录时无限弹出验证码,要么是刚登上去就被踢下线。 这不仅仅是“连不上”的问题,而是一个典型的网络协议泄露与安全风控案例。本着“知其然更要知其所以然”的精神,我深扒了其背后的技术原理,发现罪魁祸首主要有两个:路由分流策略与WebRTC 协议漏洞。 第一部分:为什么 ip138 “出卖”了你?—— 聊聊路由分流 (Split Tunneling) 很多新手判断 是否生效的标准是:

前端流式输出实现详解:从原理到实践

前端流式输出实现详解:从原理到实践

前端流式输出实现详解:从原理到实践 * 前言 * 一、流式输出核心原理 * 1.1 什么是流式输出? * 1.2 技术优势对比 * 1.3 关键技术支撑 * 二、原生JavaScript实现方案 * 2.1 使用Fetch API流式处理 * 关键点解析: * 2.2 处理SSE(Server-Sent Events) * 三、主流框架实现示例 * 3.1 React实现方案 * 3.2 Vue实现方案 * 四、高级优化策略 * 4.1 性能优化 * 4.2 用户体验增强 * 4.3 安全注意事项 * 五、实际应用案例 * 5.1 聊天应用实现