【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台


请添加图片描述

🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯


写在最前面

版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。

最近一段时间,“AI 操作电脑”这件事越来越火。很多人第一次看到这类演示时,都会觉得有点神奇:原来 AI 不只是会聊天、会写文案,居然真的开始会“用电脑”了。

也正因为这样,很多人会下意识觉得,所有“AI 控电脑”的东西,应该都差不多。无非就是让 AI 帮你点点鼠标、输输文字、开开网页、跑跑流程。

但真往下看,其实不是这么回事。

因为有的方案,本质上更像是让 AI 在当前这台电脑上学会干活;而有的方案,更像是把一整套远程控制能力直接交给 AI,让它不只是操作眼前这一台电脑,而是能去连接、查看、操作更多设备。

向日葵 MCP 更接近后者。它真正值得关注的地方,也不只是“向日葵也做 AI 了”,而是那个大家熟悉的远程控制工具,开始让 AI 真正接手远程设备操作这件事了。

比openclaw更简单的配置过程,没有特定环境的需求

很多人一听到“AI + 远程控制”,第一反应就是复杂。

是不是要额外买设备?

是不是要单独搭环境?

是不是要学很多配置?

是不是只有技术人员才能用?

但向日葵 MCP 比较有吸引力的一点,就是它不是让你为了 AI 再重建一套远程控制系统,而是把原本已有的远控能力,直接接到了 AI 这一侧。

这件事的意义其实很现实:普通用户最怕的,不是功能不够多,而是门槛太高。一旦某个东西上来就要求你买一堆设备、改一堆环境、理解一堆概念,很多人其实第一步就放弃了。

如果只是先体验一次,我更建议直接接入 OpenCode。路径比较直观,也更容易快速看到效果。

参考配置链接:https://service.oray.com/question/50091.html?utm_source=client&utm_medium=redirect&utm_campaign=slrc&utm_term=mcp_help&redirect_id=1991

  • 打开向日葵客户端,进入「设置」> 「MCP服务器」。点击「启用MCP服务器」

根据使用场景选择适合的通信方式:

  • Stdio(推荐):本地进程通信,适用于本地运行的 AI 客户端
  • Streamable HTTP:基于 HTTP 的远程通信,适用于需要跨网络调用的场景

可将如下提示词和上述通信方式发送给AI,让AI来完成配置工作。

AI完成配置后,手动检查对应的配置文件是否写入完毕。

确保配置文件写入完毕后,需要先重启OpenCode客户端才能生效,按如下步骤执行操作验证。

  • 重启 OpenCode 客户端
  • 在输入框输入指令 /mcp 检查MCP服务器连接状态

如上所示,如果显示awesun-mcp-server已连接,并且处理开启状态,则配置完成。

整套流程更像是在已有远控能力上,多接了一层 AI 可以调用的接口,而不是重新搭一套很重的系统。这也是它对普通用户更友好的地方。

真正实用的地方,是它更接近现实场景

很多 AI 控电脑的演示都很酷,但对普通用户来说,真正重要的不是演示有多炫,而是它能不能进入日常场景。

向日葵 MCP 的优势就在这里。因为它本来就是从远程设备控制出发的,所以更适合处理那些和“另一台电脑”有关的事情。

比如你人在外面,但文件、软件、资料都在另一台电脑上。以前要自己远程连回去,一步步找、一点点操作。现在如果 AI 能直接接入这套远程控制能力,很多事情就有机会从“我亲自操作”,变成“我告诉 AI 要做什么,它先替我去做”。

再比如,不少人手上本来就不止一台设备。有主力电脑,也有备用电脑;有时还会有挂着程序的机器。真到要看状态、确认界面、做一些基础操作时,最麻烦的就是来回切换。向日葵 MCP 这种能力,正好能让 AI 接手一部分原本必须人反复折腾的远程操作。

还有一种很实用的场景,就是**“先帮我看一眼”** 。很多时候,我们不是马上要做复杂操作,只是想知道另一台设备现在是什么状态:开着没有、卡在哪个界面、有没有报错。AI 如果能先去看、先去判断、先把情况整理出来,人再决定要不要接手,整个体验会轻很多。

  • 发送一句简单指令,比如:帮我查询下设备列表中XXX
  • 设备的配置信息

多平台、可查看、可接手,才是它更适合大众的原因

很多 AI 产品在演示里看起来都很顺,是因为环境通常很理想:一台电脑、一个系统、一个固定流程。

但真实世界不是这样。有人用 Windows,有人用 macOS;有的人有办公电脑,也有家里电脑;有时候甚至还会碰到 Linux 设备、安卓终端。设备一多、平台一杂,很多看起来简单的自动化就会突然变得麻烦。向日葵 MCP 的价值就在于,它不是只盯着单一环境,而是尽量把更多真实设备场景纳入进来。

另外,很多人对 AI 自动化感兴趣,但也会担心:如果它乱点怎么办?如果它看错了怎么办?

这也是为什么**“可查看、可接手”** 很重要。向日葵 MCP 这类能力的一个优势,就是操作过程更容易被看到和监管。用户可以随时查看过程,必要时也能介入。这样一来,AI 不再是一个完全黑盒的执行者,而更像一个可以先帮你做事、你随时能接回来的助手。

awesun-mcp-example-claude/CLAUDE.md记忆文件,预设系统提示词写的很有意思,感兴趣的朋友可以去看看他实际的逻辑。

结语

所以,那个“搞远程的向日葵也出 AI 了”这件事,真正值得看的,不只是它赶上了 AI 这波热度。

更重要的是,它本来就擅长远程控制设备,现在又把这套能力正式开放给了 AI。这样一来,AI 不只是会在你眼前这台电脑上干活,还有机会开始接手更多远程设备相关的事情。

如果你只是想让 AI 帮你处理本机任务,市面上已经有很多很吸引人的方案;但如果你关心的是跨设备、跨地点、多平台、可查看、可接手的远程操作体验,那向日葵 MCP 这条路,确实会更值得普通用户认真看一眼。


hello,这里是 晓雨的笔记本 。如果你喜欢我的文章,欢迎三连给我鼓励和支持:👍点赞 📁 关注 💬评论,我会给大家带来更多有用有趣的文章。
原文链接 👉 ,⚡️更新更及时。

欢迎大家点开下面名片,添加好友交流。

Read more

AIGC实战——CycleGAN详解与实现

AIGC实战——CycleGAN详解与实现

AIGC实战——CycleGAN详解与实现 * 0. 前言 * 1. CycleGAN 基本原理 * 2. CycleGAN 模型分析 * 3. 实现 CycleGAN * 小结 * 系列链接 0. 前言 CycleGAN 是一种用于图像转换的生成对抗网络(Generative Adversarial Network, GAN),可以在不需要配对数据的情况下将一种风格的图像转换成另一种风格,而无需为每一对输入-输出图像配对训练数据。CycleGAN 的核心思想是利用两个生成器和两个判别器,它们共同学习两个域之间的映射关系。例如,将马的图像转换成斑马的图像,或者将苹果图像转换为橙子图像。在本节中,我们将学习 CycleGAN 的基本原理,并实现该模型用于将夏天的风景图像转换成冬天的风景图像,或反之将冬天的风景图像转换为夏天的风景图像。 1. CycleGAN 基本原理 CycleGAN 是一种无需配对的图像转换技术,它可以将一个图像域中的图像转换为另一个图像域中的图像,而不需要匹配这两个域中的图像。它使用两个生成器和两个判别器,其中一个生成器将一个域中的图像

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace

llama-recipes数据治理:数据质量与元数据管理终极指南

llama-recipes数据治理:数据质量与元数据管理终极指南 【免费下载链接】llama-recipesExamples and recipes for Llama 2 model 项目地址: https://gitcode.com/gh_mirrors/ll/llama-recipes 在当今AI驱动的世界中,高效的数据治理已成为企业成功的关键因素。llama-recipes作为Llama 2模型的示例和配方集合,提供了完整的数据质量管理框架,帮助开发者和数据科学家构建可靠的AI应用。本文将深入探讨如何利用llama-recipes实现专业级数据治理。🚀 什么是数据治理与质量管理? 数据治理是一套确保数据在整个生命周期中保持高质量、安全性和合规性的流程和策略。在llama-recipes项目中,数据治理通过以下几个方面实现: * 数据质量监控:确保训练数据的准确性和一致性 * 元数据管理:跟踪数据来源、处理流程和使用情况 * 数据安全与合规:保护敏感数据并确保符合法规要求 数据预处理与质量保障 llama-recipes的数据治理从数据预处理开始。在

Stable Diffusion XL 1.0高清实测:灵感画廊1024x1024输出在NVIDIA RTX 4090上的帧率表现

Stable Diffusion XL 1.0高清实测:灵感画廊1024x1024输出在NVIDIA RTX 4090上的帧率表现 1. 测试背景与目标 今天我们来实测一款基于Stable Diffusion XL 1.0的艺术创作工具——"灵感画廊"在NVIDIA RTX 4090上的性能表现。这款工具以其独特的艺术界面和沉浸式体验著称,但更重要的是,我们需要了解它在生成1024x1024高清图像时的实际帧率表现。 测试将重点关注以下几个方面: * 单张图像生成时间(从输入提示词到完整输出) * 连续生成时的稳定性和一致性 * 不同采样步数下的性能差异 * 显存占用和温度控制情况 通过这次实测,你将清楚地知道RTX 4090在这款工具上的实际表现,为你的创作工作流提供参考。 2. 测试环境配置 为了保证测试结果的准确性和可重复性,我们搭建了标准的测试环境: 2.1 硬件配置 * 显卡:NVIDIA GeForce RTX 4090 24GB * 处理器:Intel Core