ToDesk推出ToClaw:让AI Agent真正走进你的日常工作流

ToDesk推出ToClaw:让AI Agent真正走进你的日常工作流

2026开年,中文互联网最热的AI关键词之一,非“OpenClaw”莫属。这款开源AI助手在技术圈掀起热潮,让越来越多人意识到:AI不该只负责聊天,它应该开始替人干活。但问题也随之而来——复杂的Python环境配置、繁琐的API部署、全英文的文档,将大多数普通用户挡在了门外。

就在今天,国民级远控软件ToDesk给出了自己的答案:ToClaw。它不是另一个需要单独下载的新软件,而是完全封装在最新版ToDesk里的AI助手。打开ToDesk,左侧AI入口就能找到它——免安装、免部署,可直接体验。

从“装环境”到“直接干活”,零门槛的AI助理

如果你折腾过OpenClaw,就会知道它的魅力和门槛几乎是同时出现的。魅力在于它真的是Agent,能执行任务而不只是聊天;门槛在于你要先理解安装、模型、渠道、权限、运行环境,甚至还得接受“先踩坑,再用起来”的现实。

ToClaw走的是另一条路。

打开之后,不是黑乎乎的终端,也不是一堆配置文件,而是一个非常直接的桌面助手界面:输入框、场景入口、技能页、定时任务、记忆与个性设置……整个逻辑都更像一个已经封装完成的产品,而不是一个等你自己拼起来的开源项目。

有用户实测后感叹:“它不是那种最会炫技的龙虾,但很可能是更适合大多数人真正养起来的一只。”

不是聊天框,而是任务入口

这一点特别关键。现在很多AI工具都在做“会话体验”,但ToClaw明显更想做“任务体验”。

首页里能直接看到“热点分析”“AI投研助理”“智能整理电脑文件”等入口,说明它不是在等你想提示词,而是在告诉你:你可以直接把事交给我。对大多数办公用户来说,这比“会写一段漂亮文案”更重要。

真正拉开差距的:技能系统+定时任务+记忆个性

ToClaw让人感受到产品完成度的地方,在于它已经建立了一套明确的技能框架。

在技能页里,已经能看到 Word/DOCX、Excel/XLSX、PDF、PowerPoint/PPTX、Agent Browser 等模块,部分技能还带有“已通过安全与合规验证”的提示。这个信号很明确:ToClaw不是想做一个万能聊天框,而是想把桌面办公里最常见的文件和网页操作,逐步做成可调用能力。

这就和很多纯网页AI拉开了距离。后者更像“你把材料给我,我帮你生成”;前者更像“我能理解你的任务,并调工具去完成”。当AI真正进入桌面,谁更接近真实工作流,谁的留存空间就更大。

还有两个小细节,让ToClaw看起来像是“能长期用”的产品:

定时任务。实测里已经可以看到按周执行的任务设置,比如定期整理新闻。这意味着ToClaw不只是一次性响应,而是在尝试做“持续执行”。

记忆与个性。ToClaw现在已经有回答篇幅、语气风格这类预设,比如默认专业、温柔体贴、幽默风趣等。别小看这个功能,它意味着产品开始考虑“长期协作感”——你不是每次都在调用一个冷冰冰的模型,而是在慢慢调教一个更适合你工作习惯的数字助理。

一个账号,调度所有设备

ToClaw真正的杀手锏,藏在ToDesk的基因里。

依托ToDesk深耕多年的远程控制技术,ToClaw实现了 “一个账号,全局调度” 的跨设备协同能力。所有登录同一ToDesk账号的设备——无论Windows、macOS、iOS还是Android——均能自动获得ToClaw能力。

这意味着什么?你的每一台设备都成了AI可以调用的“远程终端”。你可以从容地指挥一个设备集群:A设备查资料,B设备跑计算,C设备做渲染,D设备执行定时任务……每一台设备都是你的AI助理。

对于普通工作者或小型工作室而言,这意味着:

- 跨端办公:出门只带平板,却能随时调用家中或公司的完整工作环境

- 任务并行:爬虫、渲染、备份、分析同时进行,效率翻倍

- 抗风险能力:设备无需24小时在线,再也不怕突发状况

安全进化:AI的建议,你的决定

随着国家安全部发布“龙虾”安全养殖手册,开源Agent在主机接管、数据窃取等方面的潜在风险被推至台前。

ToClaw从底层设计上规避了这些风险:采用 “云端运算、本地确认” 的逻辑,所有关键操作——如文件删除、系统更改——均需用户弹窗授权。AI的执行权始终保留在用户手中,让生产力的释放不以牺牲安全为代价。

谁适合用ToClaw?

如果你是喜欢折腾、喜欢自己控制全套环境的技术玩家,那OpenClaw依然很有吸引力,毕竟开源、自由度高、社区活跃,这些都是它最强的价值。

但如果你是更典型的办公用户——每天要查资料、做报告、整理文件、盯进度、跑远程协作——那ToClaw这种“已经长进ToDesk体系里”的方案,会现实很多。

ToDesk官网本身就强调跨手机、平板、电脑等多终端兼容,以及围绕远程办公、技术支持、IT运维的多场景能力,这使得ToClaw天然更适合接入真实的多设备工作流。

用一个形象的比喻:OpenClaw更像一台性能很猛的改装车;ToClaw更像一台已经上好牌照、拧钥匙就能开的车。

开启AI Agent的普惠时代

ToClaw的发布,不仅是ToDesk在工具软件领域的一次自我进化,更是AI Agent从“极客圈层”走向“大众市场”的关键一步。

当AI部署不再是难题,当一个账号就能调度所有设备,当每一台电脑、平板、手机都成为你的数字员工——一场真正的生产力革命,才刚刚开始。

目前ToClaw公测已全面开启,每日签到可领取免费积分,日常使用完全足够。如果你曾因部署复杂而放弃AI Agent,现在正是体验的好时机。

Read more

FPGA光通信2——Aurora 64B/66B的开发使用

FPGA光通信2——Aurora 64B/66B的开发使用

可参考GZH:小蘇的FPGA         FPGA光通信的开发过程中,最简便的方式为Aurora 64B66B,开发人员无需关注2bit同步头,加解扰等过程,开放给开发人员的主要是AXI-Stream用户数据接口。         Aurora是一款可扩展的轻量级、高数据速率链路层高速串行通信协议,支持全双工或单工,支持64B/66B,8B/10B编码。 一、Aurora 64B/66B使用介绍         该核的使用架构主要如下:借助xilinx 核,开发人员可根据用户接口实现多通道间的光通信。最大支持16lane。 1.1 、IP核的介绍         参考PG074, 该核的内部结构如下:         其中,Lane logic:每个GT收发器由一个lane逻辑模块实例驱动,初始化每个收发器,处理控制字符的编解码,并执行错误检测。         Global logic: 全局逻辑模块执行通道绑定以进行通道初始化。在运行过程中,该通道跟踪Aurora 64B/66B协议定义的Not Ready空闲字符,并监控所有通道逻辑模块的错误。

Stable Diffusion 提示词高阶用法:从新手到精通的实战指南

快速体验 在开始今天关于 Stable Diffusion 提示词高阶用法:从新手到精通的实战指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Stable Diffusion 提示词高阶用法:从新手到精通的实战指南 刚接触 Stable Diffusion 时,我经常遇到这样的困扰:明明输入了详细的描述,

【大作业-46】基于YOLO12的无人机(航拍)视角的目标检测系统

【大作业-46】基于YOLO12的无人机(航拍)视角的目标检测系统

基于YOLO12的无人机(航拍)视角的目标检测系统 🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳 【大作业-46】基于yolo12的航拍(无人机)视角目标检测与追踪系统 🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳 各位小伙伴大家好,今天我们为大家带来的是基于无人机视角下的目标检测,主要是对常规的行人、车辆这些目标进行检测,并且接着这个机会我们对yolo12的新模块进行一下说明,和之前的内容一样,我们的教程中包含了标注好的数据集、训练好的yolov5、yolov8、yolo11以及yolo12的模型,还有一个配套的图形化界面。本次的数据集包含的类别如下: 0: pedestrian 行人 1: people 人 2: bicycle 自行车 3: car 汽车 4: van 货车 5: truck 卡车 6: tricycle 三轮车 7: awning-tricycle 遮阳篷三轮车 8: bus 公交车 9: motor 摩托车 以下是部分数据示例。

[论文阅读] AI + 软件工程 | 突破LLM上下文瓶颈:上下文内存虚拟化CMV的设计与实践

[论文阅读] AI + 软件工程 | 突破LLM上下文瓶颈:上下文内存虚拟化CMV的设计与实践

突破LLM上下文瓶颈:上下文内存虚拟化CMV的设计与实践 论文基础信息 * 原标题:Contextual Memory Virtualisation: DAG-Based State Management and Structurally Lossless Trimming for LLM Agents * 主要作者:Cosmo Santoni * 研究机构:帝国理工学院(Imperial College London) * 发表时间:2026年2月 * 引文格式(GB/T 7714):SANTONI C. Contextual memory virtualisation: DAG-based state management and structurally lossless trimming for LLM agents[EB/OL]. [2026-02-25]. arXiv: