免费部署openClaw龙虾机器人(经典)

免费部署openClaw龙虾机器人(经典)

前几天出了个免费玩龙虾的详细教程,很多小伙伴觉得不错,但是还有一些新手留言反馈内容不够详细,这次我将重新梳理一遍,做一期更细致的攻略,同时扩展补充配置好之后的推荐(我认为是必要)操作,争取一篇文章让大家可以收藏起来,随时全套参照复用。

先看效果测试

部署完成基础运行效果测试,你可以直接问clawdbot当前的模型:

1.Token平台准备

首先,还是准备好我们可以免费撸的API平台

这里我找到了两个可以免费使用的API,测试之后执行效率还可以,下面将分别进行细致流程拆解。

1.1 硅基流动获取ApiKey (相对免费方案 推荐)

硅基流动地址:https://cloud.siliconflow.cn/i/6T57VxS2

如果有账号的直接登录,没有的注册一个账号,这个认证就送16元,可以直接玩收费模型,真香。认证完成后在API秘钥地方新建秘钥。

硅基流动里面很多模型原来是免费的,有了16元注册礼,很多收费的模型也相当于免费用了,我体验一下了原来配置免费模型还能用,也是值得推荐的。建议使用截图的第一个模型体验一下,我一直用它。

1.2 推理时代Api  (绝对免费方案 纯免费但没有上面的好用)

推理时代地址:https://aihubmix.com/?aff=DJ5f

注册之后也是创建自己的key备用,如果已经搭建好的龙虾可以直接用这个key,后面会讲如何在可视化搭建龙虾中应用。

推理时代有很多模型是直接免费的,我认为以后会越来越卷,免费的也会越来越多。

准备好key之后,可以回到首页看一下免费的模型有哪些,推理时代的模型还是很友好的,免费的后面都会给你标注一个-free这在我们配置的时候很容易识别。

2.必要软件及下载安装配置

cherry-studio 下载地址:https://www.cherry-ai.com/download

node.js 下载地址:https://nodejs.org/zh-cn/download/

git 官方下载地址:https://git-scm.com/

其中git比较慢,我在评论区把下载好的网盘地址分享给大家。

Cherry的安装没有太多技巧,直接下一步即可,但要根据自己的系统情况进行下载。

Node.js下载的时候千万别选错芯片类型:

然后安装时勾选自动安装依赖:

几个必要的安装包安装完成之后,下面就是一键安装clawbot。

先确认自己的cherry设置导航栏是在左侧的。

图片

点左侧龙虾机器人图标,开始安装:

装完成之后,就可以进行模型配置了。

3.模型配置

打开cherryStudio的设置,然后将刚才准备的key填入对应的平台地址。

图片

注意一定要先添加免费模型:

还是当前操作界面,翻到最下面点管理,然后将免费模型加一些进来。这个是支持gemini和chatGPT的,很香。

图片

添加完测试一下, 选国内的模型厂商一般都是通的:

这样就可以开始体验clawdbot了。

回到clawdbot小图标,然后选择对应的模型启动。

图片

启动之后,我们就可以给自己的龙虾派任务了,你也拥有了直接免费的龙虾,当然,免费不是目的,如果你的投入产出理想的话也可以使用更强大的模型。

对于小白现在就可以用了,下面是进阶应用,需要懂点命令行的。

================================================

4. 推荐操作(建议全文保存)

4.1 安装clawhub并更换clawhub源到阿里云国内镜像

安装clawhub命令:

    npm i -g clawhub

    配置国内镜像源命名:

      openclaw config set --global registry https://openclaw.registry.aliyuncs.com

      4.2 安装必要skill

      安装skill的命令

        clawhub install <技能名称>

        推荐安装的基础技能

        序号

        技能名称

        必装理由

        1

        tavily-search

        联网实时搜索,支持精准问答/热点查询,解决AI信息滞后问题

        2

        self-improving-agent

        让Agent记录错误并自我优化,交互越久越智能

        3

        find-skills

        AI自动检索ClawHub并推荐适配技能,解决「装什么」痛点

        4

        clawhub-update

        一键更新所有已装技能,同步官方最新版本

        5

        session-manager

        管理OpenClaw会话,支持一键保存/恢复对话内容

        5.连接飞书或钉钉远程调度机器人

        很多人推荐安装飞书,可能出于办公自动化需要,但是我实际测试发现飞书限流,很多语句会丢包,所以最终选择了钉钉,基本上面配置很简单。

        先安装钉钉依赖插件:

          openclaw plugins install https://github.com/soimy/clawdbot-channel-dingtalk.git

          (如果访问不了,直接问一下找一找内地镜像下载下来,告诉你openclaw自己装,然后把必要的key直接发给机器人,机器人可以自己装)

          然后:

          登录钉钉开放平台(https://open.dingtalk.com),切换到你的企业。

          创建企业内部应用

          获取应用凭证

          添加并配置机器人

          发布应用与机器人

          (可选)开启 AI 卡片流式输出

          效果:

          这样,你就可以远程指挥自己的机器人了,随时随地给他发命令让他干活儿。

          6.记忆增强(节省Token消耗)

          节省token的最佳方式是增强机器人的记忆,所以我这里使用的是memOS,key是免费的,我还是觉得有key的更好一点。

          安装命令(也可以把你的密钥丢给机器人让他自己装)

            openclaw plugins install github:MemTensor/MemOS-Cloud-OpenClaw-Plugin

            这样你的Token消耗就可以大幅节省,据说可以达到75%以上的账单压缩。

            后续相关新的小技巧就在本页评论区更新了,大的玩法攻略会单独更新到AI Agent专题中。

            Read more

            【Spring Boot开发实战手册】掌握Springboot开发技巧和窍门(十三)前端匹配界面、后端匹配WebSocket

            【Spring Boot开发实战手册】掌握Springboot开发技巧和窍门(十三)前端匹配界面、后端匹配WebSocket

            前言 在现代 Web 开发中,前端和后端的协作变得越来越重要,特别是在需要实时交互和数据更新的应用场景中。WebSocket 技术作为一种全双工通信协议,使得前端和后端之间的实时数据传输变得更加高效和稳定。本篇博客将会探讨如何设计和实现一个实时匹配系统,其中前端负责展示用户界面并与后端进行交互,而后端则通过 WebSocket 协议来处理数据通信。 前端 onMounted: 当组件被挂载的时候执行的函数 onUnmonted: 当组件被卸载的时候执行的函数 初步调试阶段,我们是将token传进user.id的 store/pk.js: import ModuleUser from'./user'exportdefault{state:{socket:null,//ws链接opponent_username:"",opponent_photo:"",status:"matching",//matching表示匹配界面,playing表示对战界面},getters:

            地理空间大揭秘:身份证首位数字的隐藏含义-使用WebGIS进行传统6大区域展示

            地理空间大揭秘:身份证首位数字的隐藏含义-使用WebGIS进行传统6大区域展示

            目录 前言 一、关于身份证的空间信息 1、身份证与省份信息 2、首位数字与区域 二、数字与空间展示可视化 1、地域及图例的前端定义 2、省份与区域信息展示 三、成果展示 1、华北地区 2、东北地区 3、华东地区  4、中南地区 5、西南地区 6、西北地区  四、总结 前言         在我们日常生活中,身份证号码是每个人独一无二的身份标识,它承载着丰富的信息,其中第一位数字更是蕴含着与地理空间紧密相关的秘密。这一位数字并非随意排列,而是与我国广袤的国土划分有着深刻的联系。通过 WebGIS(Web 地理信息系统)技术,我们能够以一种直观、生动的方式,将身份证首位数字所代表的地理区域进行可视化展示,从而揭开传统 6 大区域的神秘面纱。       中国地域辽阔,地理环境复杂多样。

            前端静态项目快速启动:python -m http.server 4173 与 npx serve . 全解析

            前端静态项目快速启动:python -m http.server 4173 与 npx serve . 全解析 在前端开发或文件共享场景中,我们经常会用到 python -m http.server 4173 和 npx serve . 这两个简单命令,它们能快速启动服务器预览前端项目,但很多人会疑惑:前端代码如此复杂,为何这两个简单命令就能实现“启动”?本文将从命令解析、工作原理、核心区别等方面全面拆解,帮你彻底弄懂背后的逻辑。 一、命令一:python -m http.server 4173 详细解释 1. 核心作用 在当前命令行所在的目录下,快速启动一个简单的HTTP文件服务器(静态文件服务器),该服务器会监听本机的4173端口,允许通过浏览器或其他HTTP客户端访问该目录下的文件及子目录。它常用来快速共享文件、本地调试简单静态网页(HTML/CSS/JS)

            Qwen3-32B开源镜像部署:Clawdbot Web网关支持WebSocket长连接

            Qwen3-32B开源镜像部署:Clawdbot Web网关支持WebSocket长连接 1. 为什么需要一个能“一直在线”的AI聊天网关? 你有没有遇到过这样的情况:在网页里和大模型聊天,刚输入一个问题,页面突然卡住、断开,或者等了半分钟才蹦出第一句话?更糟的是,刷新页面后对话历史全没了——就像和一个人聊到一半,对方突然挂了电话,再打过去已经不记得刚才说到哪了。 这背后其实是个很实际的技术问题:传统HTTP短连接在实时交互场景下力不从心。而Qwen3-32B这类高性能大模型,光是加载就接近20GB显存,推理响应又依赖稳定低延迟的通道。如果只是简单用curl调API,根本撑不起一个像样的Web聊天界面。 Clawdbot做的这件事,就是把Qwen3-32B真正“请进浏览器里坐稳”——它不靠轮询、不靠重连、不靠前端自己维护状态,而是用原生WebSocket长连接,让浏览器和后端之间建立一条持续畅通的“语音专线”。消息来了秒达,流式输出一气呵成,断网恢复后还能续上最后一句。这不是炫技,是让AI真正能嵌进产品里的关键一步。 这篇文章不讲抽象架构图,也不堆参数表格。我会带你从零跑通