QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

欢迎来到我的博客,代码的世界里,每一行都是一个故事

🎏:你只管努力,剩下的交给时间

🏠 :小破站

QClaw 上手指南:我用了一周龙虾,感觉自己白用了两年 AI

如果你最近在关注 AI 工具圈,大概率听说过一个叫 OpenClaw 的东西,中文社区管它叫「龙虾」。这个开源项目在 GitHub 上拿了 30 万 Star,增速之快让整个行业侧目。就在上周,CNBC 专门发文分析它的爆发式增长,标题起得很直接——「OpenClaw 迎来自己的 ChatGPT 时刻」。与此同时,腾讯、字节、阿里、小米已经相继跟进,开始基于它做自己的 AI 助手产品。

但对普通用户来说,OpenClaw 的上手门槛不低——你得会用命令行,得懂 Node.js,得自己去配 API 密钥。这道槛挡住了相当一部分想用的人。

QClaw 解决的就是这个问题。它是 OpenClaw 的桌面端封装版,把所有安装配置流程都藏进去,开箱即用,还把微信直联做成了核心功能。我从安装到上手折腾了一周,把整个过程记录下来,给同样想试试但不知道从哪里开始的人参考。


先说清楚:OpenClaw 是什么,龙虾又是怎么来的

理解 QClaw 之前,得先理解 OpenClaw。

OpenClaw 本质上是一个跑在本地的 AI 代理框架。它不是聊天界面,而是一个 AI 引擎——可以连接微信、钉钉、飞书、WhatsApp 等 20 多个聊天平台,可以安装 Skills 插件扩展能力,可以接入任意兼容 OpenAI 格式的大模型,可以在你的电脑上直接操控文件、浏览器、执行脚本。

它为什么叫「龙虾」?项目历史上经历过几次改名,从 Clawd 到 Moltbot 再到 OpenClaw,像龙虾蜕壳一样,每次都脱胎换骨。这个绰号在中文社区里传开了,后来就成了约定俗成的叫法。

QClaw 是在 OpenClaw 基础上做的桌面应用,支持 macOS(Apple 芯片和 Intel 芯片),把安装、配置、启动这些流程全部包装好,不需要懂命令行,下载安装完直接用。

QClaw 下载页面

第一次打开:它先问你是谁

安装完打开,没有引导页,没有功能介绍 PPT,直接进入对话界面。然后它开口了:

看起来这是我们第一次对话。我刚刚上线,身份还是空白的——连名字都还没定下来。
你是谁?我又该是谁?咱们来聊聊,把这些定下来。

它会问你几个问题:你叫什么,希望 AI 叫什么名字,喜欢什么风格——正式的、随意的、有点嘴贱的、还是温暖贴心的。

首次启动初始化

这个初始化流程看起来很轻,背后是认真的。你们协商好的名字、说话风格、对彼此的称呼,会写入工作空间的配置文件,下次启动还在,不会因为重启清空。这是持久化身份,不是一次性扮演。

手机端也是同一套逻辑。在微信里走完初始化,AI 助手就和你的微信账号绑定了,之后直接发消息就能调用,不需要打开任何 App。

手机端微信初始化

多数 AI 工具的逻辑是先展示功能、再让你上手。QClaw 把顺序反过来——先建立关系,再谈干活。用了一段时间之后才明白这个顺序其实是对的。一个你自己命了名、定了性格的 AI,你对它的信任感和使用频率,跟用一个无名工具是完全不同的。


微信直联:手机变成了 AI 的遥控器

这是 QClaw 和大多数 AI 桌面工具最不一样的地方。

我们在手机上花的时间,远比在电脑前多。但手机上的 AI 工具基本都是孤岛——你在某个 App 里问完,结果就留在那个 App,和你的文件、工作流程完全割裂。要用 AI 帮你处理点事情,得切 App、粘贴内容、等结果、再切回来,流程摩擦很高。

QClaw 整体界面

QClaw 的做法是把微信变成控制入口。在路上发一条微信,本地的 AI 开始处理,完成后直接把结果发回微信。你不需要打开电脑,不需要切 App。等地铁的时候发出去,回到办公室任务已经有了。

b9a32c8adc566f010dc72ae2b7370cac

这不是「AI 接入微信聊天」,而是「微信成了控制本地 AI 的遥控器」。用过一次就知道这两句话的差距有多大。

而且不只是微信。QClaw 的远控通道支持一整排平台:微信、企业微信、QQ、飞书、钉钉、微信客服号,扫码或填入 App ID 和 Secret 即可绑定。团队用企业微信的、公司统一用钉钉的、个人习惯飞书的,都能直接在各自熟悉的工具里和 QClaw 对话,不需要再装别的东西。

远控通道设置页面

接入自定义模型:你的 API 你做主

QClaw 内置了国产大模型,默认状态下直接可用。但它同时完全开放了模型接入口,支持任何兼容 OpenAI 格式的第三方模型(稍微懂点原理,默认UI界面不支持配置,只有部分coding plan)。

接入方式简单得出乎意料——直接用中文告诉它就行:

帮我接入一个模型,格式符合 OpenAI,地址是 xxx,密钥是 sk-xxx,模型用 gpt-4.5。
告诉它接入新模型

QClaw 会自动写入配置文件、重启 Gateway,然后告诉你接入完成、默认模型已切换。之后的对话直接跑新模型,不需要你动任何配置文件。

切换模型后

这个能力对几类人特别关键:公司有自己私有部署模型不想数据出去的;已经买了某家 API 不想重复付费的;想对比不同模型效果的;需要接入国产模型的。QClaw 不绑你用某个特定模型,而是帮你把任何模型用顺手。

如果你习惯直接改配置文件,也可以绕过对话界面,直接编辑 ~/.qclaw/openclaw.json。QClaw 的所有模型配置都存在这里——每个 provider 的 baseUrl、apiKey、模型列表,甚至 reasoning 开关都明文写在这个 JSON 里。改完保存,重启生效。目录里还有几个 .bak 备份文件,QClaw 每次改配置前都会自动备份一份,改坏了直接还原就行。

openclaw-json内容

Skills 插件:能力边界一直在扩

OpenClaw 生态有一个叫 ClawHub 的技能市场,已经有 100 多个 Skills 可以安装,覆盖网页搜索、文件处理、浏览器自动化、GitHub 管理、Notion 同步、代码审查等各类场景。

在 QClaw 里安装 Skill 不需要任何技术操作,界面里直接装。装完之后 AI 自动识别,在合适的时机调用对应工具。

已安装的 Skills 列表

用下来的感受是,Skills 的数量积累到一定程度之后,AI 的能力会有一个质的变化。它不再只是回答问题,而是真的能替你跑任务——搜索 + 整理 + 写入文件 + 推送到微信,一条链路打通。Skills 安装得越多,它能处理的任务范围就越广,这是一个正向积累的过程。


角色系统:不是换个语气,是换个工作模式

很多 AI 工具都有「人设切换」,让它扮演严肃分析师或者温柔助手。这类功能大多数情况下流于形式,换的是说话腔调,工作逻辑没变。

QClaw 的角色系统解决的是另一个问题:不同项目、不同任务类型,需要不同的工作逻辑。

举个例子,你可以给某个项目绑定一个「项目军师」角色,职责是梳理需求、拆解路线、写方案、做决策建议、控节奏。绑定之后,AI 在这个项目的上下文里就始终以这套方式工作,不会跑偏到别的模式。

同理,你可以设定专门处理文件的角色、专门审代码的角色、专门写方案的角色。同一个 AI,绑定不同角色之后,输出的质量和针对性是有实质差异的。

这比语气切换实用得多。需要的不是一个会说软话的 AI,而是一个在特定上下文里能持续发力的工作搭档。


定时任务:让 AI 主动替你干活

大多数 AI 工具是被动的——你问,它答;你不问,什么都不发生。QClaw 的定时任务打破了这个模式。

用自然语言直接创建任务,比如:

  • 「设置每日 8:00 自动抓取今日 AI 科技热点,整理成简报发给我」
  • 「提醒我喝水,每日 10:00 执行,从今天开始持续生效」
  • 「每天推送当天最新 10 条科技新闻,每条总结要精简」
定时任务界面

这不是日历提醒,是真正的自动化任务。任务触发时,AI 自动联网搜索、整理内容,然后推送到你的微信。你开会的时候它在跑,你睡觉的时候它在跑,你不在电脑旁的时候它还在跑。

「灵感广场」里还有一批现成的任务模板,比如热点资讯自动汇总、懒人出游规划等,不用自己想任务怎么描述,直接套用就行。

灵感广场模板

创建一个每天早上 8 点推送 AI 科技简报的任务,只需要说一句中文。QClaw 会自动生成 cron 表达式 0 8 * * *,时区设定为 Asia/Shanghai,会话模式设为 isolated(隔离运行,不污染主对话),全程不需要你手动填任何参数。

创建定时任务

任务配置文件的实际内容长这样——job id、名称、cron 表达式、时区、会话模式,都自动生成好了。

cron job 配置

整套定时任务系统跑在本地,不依赖云端服务器,任务数据不上传,执行结果也不经过第三方。


它是怎么「记住你」的

这是整个产品里我觉得设计最用心的部分。

QClaw 的工作空间里有一套结构化的 Markdown 文件系统,AI 用这套文件来维持跨对话的记忆:

  • AGENTS.md:总工作守则,规定每次开工先读什么、什么能直接做、什么要先问你、记忆该写到哪里
  • SOUL.md:性格和气质设定,定义说话风格、观点表达方式、隐私边界
  • IDENTITY.md:名字和人设,初始化时你们协商的内容
  • USER.md:你的档案,记录偏好、习惯、长期上下文
  • MEMORY.md:长期记忆,从日常对话中提炼出值得长期保留的内容
  • memory/YYYY-MM-DD.md:每日记忆日志,记录当天做了什么、遇到什么问题、做了哪些决定
记忆文件系统原理
记忆文件系统续

QClaw 自己把这套系统描述为「AI 助手的内脏系统」:SOUL.md 是性格,IDENTITY.md 是名字和人设,USER.md 是你的档案,MEMORY.md 是它的长期记忆。

这个比喻很准。普通 AI 工具每次对话都是从零开始,没有积累。QClaw 记得你上次说不喜欢废话,记得你正在做的项目,记得你的工作节奏和决策习惯。用的时间越长,它越懂你——这才是「个人 AI 助手」这个词应该有的含义。


本地跑意味着什么

QClaw 的「本地部署」不只是一个技术参数,它在实际使用中有两层含义。

第一层是数据不出门。你的文件、对话记录、记忆文件全部留在自己电脑上,不上传到任何服务器。处理敏感商业信息、内部文档的人,这是硬需求。

第二层是真正的系统控制权。因为运行在本地,QClaw 可以直接操作你的文件系统、调用本地应用、执行脚本,而不是只能在沙盒对话框里回答问题。这让它从「智能问答工具」变成了「能干活的本地 AI 员工」。


适合什么人用

以下几类人会觉得 QClaw 非常顺手:

需要长期用 AI 辅助工作的人。 不是偶尔问个问题,而是把 AI 深度嵌入日常流程。这类人对「每次都要重新解释背景」这个问题深有体会,QClaw 的持久记忆直接解决了这个痛点。

经常移动办公的人。 在手机微信上触发本地 AI 任务,这个能力对经常出差、开会、不在电脑前的人有实际价值。

有数据安全顾虑的人。 本地部署加上自定义模型接入,数据流向完全可控。

想自动化重复性信息工作的人。 定时资讯摘要、自动整理内容、定时提醒——以前要靠 RPA 工具或自己写脚本,现在说一句中文就能搞定。


最后

OpenClaw 的爆发让整个 AI 代理方向的逻辑变得更清晰:模型本身在商品化,谁能把模型的能力真正接入你的日常工作流,谁才有长期价值。QClaw 选择的路径是——住在你电脑里,认识你,记住你,主动替你干活,通过你最常用的 App 和你交互。

这条路不算新鲜,但把每个环节都做扎实的产品,现在还不多(其实也不少了)。

龙虾的生态还在快速扩张,Skills 在增加,平台接入在增加,记忆系统在迭代。现在上手,赶上的是一个还在高速成长的早期阶段——对于愿意折腾的人来说,这个时间点进来挺合适的。

Read more

从零开始:在本地搭建一个带知识库的 AI 助手(Ollama + Open WebUI)

从零开始:在本地搭建一个带知识库的 AI 助手(Ollama + Open WebUI)

一文讲清楚:要选哪些工具、需要什么环境、整体架构长什么样,以及一步步实现到能用的程度。 一、为什么要在本地搭一个 AI 助手? 过去一年,大模型从“新奇玩意儿”迅速变成“日常生产力工具”。但如果你只用网页版 ChatGPT / 文心一言 / 通义千问,会碰到几个很现实的问题: * 数据隐私:公司内部文档、个人笔记、聊天记录,你敢全部塞到线上吗? * 网络依赖:在飞机上、高铁里,或者公司内网严格管控时,在线 AI 直接“失联”。 * 额度与费用:免费额度有限,稍微重度一点就要付费,而且你也不知道自己的数据会不会被拿去训练。 本地部署一套 “AI + 知识库” 的好处就非常直观: 1. 数据完全不出本地,满足隐私合规要求。 2. 断网也能用,随时随地调取你的“第二大脑”。 3. 可定制:可以给团队搭一个“

如何彻底释放LG WebOS电视潜能:第三方应用完全指南

智能电视用户的新选择 【免费下载链接】webos-homebrew-channelUnofficial webOS TV homebrew store and root-related tooling 项目地址: https://gitcode.com/gh_mirrors/we/webos-homebrew-channel 你是否曾对LG WebOS智能电视的官方应用商店感到失望?应用数量有限、功能单一、无法安装第三方工具...这些问题困扰着无数智能设备用户。传统的官方渠道限制了电视的真正潜力,让价值数千元的智能设备变成了"智能"的摆设。 WebOS Homebrew Channel正是为解决这些问题而生。作为非官方的应用商店,它打破了LG WebOS智能电视的应用安装限制,让你能够自由安装各种第三方应用程序,真正释放智能电视的全部潜能。 核心功能解析:为什么选择Homebrew Channel 独立应用仓库系统 WebOS Homebrew Channel提供了一个完全独立的WebOS软件包仓库,支持家庭酿造应用的发现、安装和更新。更重要的是,它支持多个外部仓库,

玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

目录 本轮目标 具体实践 一、开启 Figma 的 MCP 服务器 二、Claude Code 连接 Figma MCP 三、Claude Code 代码实现 Figma 设计稿 本轮目标 本轮目标是制作数字化大屏的一个前端组件,要求和UI设计图还原度达到1:1。 本轮目标需要我们提前准备好figma客户端,且登录帐号具有开发模式的权限(没有可以去某夕)。Claude Code 就不必多说,没有安装的同学参考我的上一篇文章《玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)》完成安装,通过专属链接注册,可以额外领取100美金的免费使用额度。 安装教程参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,

Windows下载、安装并运行MinIO,访问WebUI界面

Windows下载、安装并运行MinIO,访问WebUI界面

MinIO MinIO 是一款基于 Apache License v2.0 开源协议的对象存储服务,兼容 Amazon S3 云存储服务接口,可用于存储海量非结构化数据(如图片、视频、日志文件等)。本教程针对 Windows 系统搭建本地 MinIO 服务,适合开发测试、小型项目部署场景。 下载MinIO 官网下载 访问MinIO中文官网或MinIO英文官网,根据读者的操作系统选择相应的操作系统版本点击MinIO Server/AIStor Server和MinIO Client/AIStor Client的Download按钮下载对应文件。 说明:两版官网域名不同,Server/Client 的文字标题有差异,但下载文件一致;中文官网下载速度更快,优先推荐。 网盘下载 通过网盘分享的文件:Minio 链接: https://pan.baidu.com/s/