【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台


请添加图片描述

🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯


写在最前面

版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。

最近一段时间,“AI 操作电脑”这件事越来越火。很多人第一次看到这类演示时,都会觉得有点神奇:原来 AI 不只是会聊天、会写文案,居然真的开始会“用电脑”了。

也正因为这样,很多人会下意识觉得,所有“AI 控电脑”的东西,应该都差不多。无非就是让 AI 帮你点点鼠标、输输文字、开开网页、跑跑流程。

但真往下看,其实不是这么回事。

因为有的方案,本质上更像是让 AI 在当前这台电脑上学会干活;而有的方案,更像是把一整套远程控制能力直接交给 AI,让它不只是操作眼前这一台电脑,而是能去连接、查看、操作更多设备。

向日葵 MCP 更接近后者。它真正值得关注的地方,也不只是“向日葵也做 AI 了”,而是那个大家熟悉的远程控制工具,开始让 AI 真正接手远程设备操作这件事了。

比openclaw更简单的配置过程,没有特定环境的需求

很多人一听到“AI + 远程控制”,第一反应就是复杂。

是不是要额外买设备?

是不是要单独搭环境?

是不是要学很多配置?

是不是只有技术人员才能用?

但向日葵 MCP 比较有吸引力的一点,就是它不是让你为了 AI 再重建一套远程控制系统,而是把原本已有的远控能力,直接接到了 AI 这一侧。

这件事的意义其实很现实:普通用户最怕的,不是功能不够多,而是门槛太高。一旦某个东西上来就要求你买一堆设备、改一堆环境、理解一堆概念,很多人其实第一步就放弃了。

如果只是先体验一次,我更建议直接接入 OpenCode。路径比较直观,也更容易快速看到效果。

参考配置链接:https://service.oray.com/question/50091.html?utm_source=client&utm_medium=redirect&utm_campaign=slrc&utm_term=mcp_help&redirect_id=1991

  • 打开向日葵客户端,进入「设置」> 「MCP服务器」。点击「启用MCP服务器」

根据使用场景选择适合的通信方式:

  • Stdio(推荐):本地进程通信,适用于本地运行的 AI 客户端
  • Streamable HTTP:基于 HTTP 的远程通信,适用于需要跨网络调用的场景

可将如下提示词和上述通信方式发送给AI,让AI来完成配置工作。

AI完成配置后,手动检查对应的配置文件是否写入完毕。

确保配置文件写入完毕后,需要先重启OpenCode客户端才能生效,按如下步骤执行操作验证。

  • 重启 OpenCode 客户端
  • 在输入框输入指令 /mcp 检查MCP服务器连接状态

如上所示,如果显示awesun-mcp-server已连接,并且处理开启状态,则配置完成。

整套流程更像是在已有远控能力上,多接了一层 AI 可以调用的接口,而不是重新搭一套很重的系统。这也是它对普通用户更友好的地方。

真正实用的地方,是它更接近现实场景

很多 AI 控电脑的演示都很酷,但对普通用户来说,真正重要的不是演示有多炫,而是它能不能进入日常场景。

向日葵 MCP 的优势就在这里。因为它本来就是从远程设备控制出发的,所以更适合处理那些和“另一台电脑”有关的事情。

比如你人在外面,但文件、软件、资料都在另一台电脑上。以前要自己远程连回去,一步步找、一点点操作。现在如果 AI 能直接接入这套远程控制能力,很多事情就有机会从“我亲自操作”,变成“我告诉 AI 要做什么,它先替我去做”。

再比如,不少人手上本来就不止一台设备。有主力电脑,也有备用电脑;有时还会有挂着程序的机器。真到要看状态、确认界面、做一些基础操作时,最麻烦的就是来回切换。向日葵 MCP 这种能力,正好能让 AI 接手一部分原本必须人反复折腾的远程操作。

还有一种很实用的场景,就是**“先帮我看一眼”** 。很多时候,我们不是马上要做复杂操作,只是想知道另一台设备现在是什么状态:开着没有、卡在哪个界面、有没有报错。AI 如果能先去看、先去判断、先把情况整理出来,人再决定要不要接手,整个体验会轻很多。

  • 发送一句简单指令,比如:帮我查询下设备列表中XXX
  • 设备的配置信息

多平台、可查看、可接手,才是它更适合大众的原因

很多 AI 产品在演示里看起来都很顺,是因为环境通常很理想:一台电脑、一个系统、一个固定流程。

但真实世界不是这样。有人用 Windows,有人用 macOS;有的人有办公电脑,也有家里电脑;有时候甚至还会碰到 Linux 设备、安卓终端。设备一多、平台一杂,很多看起来简单的自动化就会突然变得麻烦。向日葵 MCP 的价值就在于,它不是只盯着单一环境,而是尽量把更多真实设备场景纳入进来。

另外,很多人对 AI 自动化感兴趣,但也会担心:如果它乱点怎么办?如果它看错了怎么办?

这也是为什么**“可查看、可接手”** 很重要。向日葵 MCP 这类能力的一个优势,就是操作过程更容易被看到和监管。用户可以随时查看过程,必要时也能介入。这样一来,AI 不再是一个完全黑盒的执行者,而更像一个可以先帮你做事、你随时能接回来的助手。

awesun-mcp-example-claude/CLAUDE.md记忆文件,预设系统提示词写的很有意思,感兴趣的朋友可以去看看他实际的逻辑。

结语

所以,那个“搞远程的向日葵也出 AI 了”这件事,真正值得看的,不只是它赶上了 AI 这波热度。

更重要的是,它本来就擅长远程控制设备,现在又把这套能力正式开放给了 AI。这样一来,AI 不只是会在你眼前这台电脑上干活,还有机会开始接手更多远程设备相关的事情。

如果你只是想让 AI 帮你处理本机任务,市面上已经有很多很吸引人的方案;但如果你关心的是跨设备、跨地点、多平台、可查看、可接手的远程操作体验,那向日葵 MCP 这条路,确实会更值得普通用户认真看一眼。


hello,这里是 晓雨的笔记本 。如果你喜欢我的文章,欢迎三连给我鼓励和支持:👍点赞 📁 关注 💬评论,我会给大家带来更多有用有趣的文章。
原文链接 👉 ,⚡️更新更及时。

欢迎大家点开下面名片,添加好友交流。

Read more

解决llama.cpp项目Vulkan后端编译难题:从环境配置到实战修复

解决llama.cpp项目Vulkan后端编译难题:从环境配置到实战修复 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp的Vulkan后端时遇到过"找不到Vulkan库"或"编译失败"的问题?本文将系统梳理Windows、Linux和Docker环境下的完整解决方案,帮助你顺利启用GPU加速功能。读完本文后,你将掌握:Vulkan SDK的正确配置方法、常见编译错误的诊断流程、跨平台构建脚本编写,以及性能验证技巧。 Vulkan后端编译环境准备 Vulkan作为llama.cpp支持的GPU加速后端之一,需要特定的开发环境配置。官方文档docs/build.

机器人导论 第六章 动力学(1)——牛顿欧拉法推导与详述

机器人导论 第六章 动力学(1)——牛顿欧拉法推导与详述

机器人动力学分析复习速通 机器人分析分为 牛顿欧拉法、拉格朗日法、高斯法、凯恩方法 matlab提供的逆动力学采用的是牛顿欧拉法:RNE——Recursive Newton-Euler 需要三个参数,第一个是给定最终的角度,第二个是速度,第三个是角加速度,返回各个关节所需要的力矩。 可选参数有重力加速度和负载fext 牛顿欧拉法 我们的目标是给定机器人的关节位置 q、速度 qd 和加速度 qdd,计算出为了产生这个运动状态,每个关节需要施加多大的驱动力矩 。 一上来看到有人问——我们不是用力域雅可比解决了每个关节应该分配多大力矩的问题了吗? 这是我初学的时候也弄混的问题。 “力域雅可比”解决的是一个不同的问题,属于静力学或外力映射范畴,他的目的是将作用在机器人末端执行器上的外力/力矩 映射到对应的关节空间力矩 。 区别就是一个是给定运动状态,计算每个关节为了达到这个运动状态需要多大力; 另一个则是给定末端的力,计算这个力分配在各个关节上是多大。 牛顿欧拉法的精髓在于正推和逆推,我们来看这个过程: * 正向递推(Forward Recursion):从基

VRM4U插件终极指南:在Unreal Engine 5中实现快速VRM模型导入

VRM4U插件终极指南:在Unreal Engine 5中实现快速VRM模型导入 【免费下载链接】VRM4URuntime VRM loader for UnrealEngine4 项目地址: https://gitcode.com/gh_mirrors/vr/VRM4U 还在为Unreal Engine 5中复杂的VRM模型导入流程而烦恼吗?今天我要向你介绍一款能够彻底改变你工作流程的终极工具——VRM4U插件!这款专为UE5设计的VRM文件导入解决方案,让你能够在极短时间内完成传统方法需要数小时才能完成的任务。无论你是VR内容开发者、游戏制作人还是数字艺术创作者,这篇文章都将为你提供完整的VRM4U插件使用指南。 常见问题:VRM模型导入的三大痛点 材质显示异常怎么办? 许多用户在导入VRM模型时遇到的最大问题就是材质显示不正常。传统的导入方式往往无法正确处理VRM特有的MToon材质系统,导致角色外观严重失真。 骨骼映射不兼容如何解决? VRM模型的骨骼结构与UE5标准骨骼系统存在差异,直接导入会导致动画无法正常工作,需要大量手动调整。 性能优化难题如何应对? 特别

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度 作为一名长期关注AI图像生成技术的开发者,我一直在寻找能够在质量和速度之间取得最佳平衡的解决方案。最近,Black Forest Labs开源的FLUX.1-dev模型引起了我的注意,特别是它声称能够在消费级硬件上运行,同时保持出色的图像质量。 今天我将通过实际测试,从图像细节、风格控制、生成速度等多个维度,对比FLUX.1-dev与大家熟悉的Stable Diffusion,看看这两个模型在实际使用中究竟表现如何。 1. 测试环境与方法 为了确保对比的公平性,我搭建了统一的测试环境。使用NVIDIA RTX 4090显卡,24GB显存,Intel i9-13900K处理器,64GB DDR5内存。操作系统为Ubuntu 22.04,所有测试都在相同的硬件和软件环境下进行。 测试方法包括定量评估和定性分析。定量方面主要测量生成速度、内存占用等硬性指标;定性方面则通过同一组提示词生成图像,从视觉质量、细节表现、风格一致性等角度进行对比。 我选择了50组涵盖不同场景的提示词,包括人物肖像、风景