免费部署openClaw龙虾机器人(经典)

免费部署openClaw龙虾机器人(经典)

前几天出了个免费玩龙虾的详细教程,很多小伙伴觉得不错,但是还有一些新手留言反馈内容不够详细,这次我将重新梳理一遍,做一期更细致的攻略,同时扩展补充配置好之后的推荐(我认为是必要)操作,争取一篇文章让大家可以收藏起来,随时全套参照复用。

先看效果测试

部署完成基础运行效果测试,你可以直接问clawdbot当前的模型:

1.Token平台准备

首先,还是准备好我们可以免费撸的API平台

这里我找到了两个可以免费使用的API,测试之后执行效率还可以,下面将分别进行细致流程拆解。

1.1 硅基流动获取ApiKey (相对免费方案 推荐)

硅基流动地址:https://cloud.siliconflow.cn/i/6T57VxS2

如果有账号的直接登录,没有的注册一个账号,这个认证就送16元,可以直接玩收费模型,真香。认证完成后在API秘钥地方新建秘钥。

硅基流动里面很多模型原来是免费的,有了16元注册礼,很多收费的模型也相当于免费用了,我体验一下了原来配置免费模型还能用,也是值得推荐的。建议使用截图的第一个模型体验一下,我一直用它。

1.2 推理时代Api  (绝对免费方案 纯免费但没有上面的好用)

推理时代地址:https://aihubmix.com/?aff=DJ5f

注册之后也是创建自己的key备用,如果已经搭建好的龙虾可以直接用这个key,后面会讲如何在可视化搭建龙虾中应用。

推理时代有很多模型是直接免费的,我认为以后会越来越卷,免费的也会越来越多。

准备好key之后,可以回到首页看一下免费的模型有哪些,推理时代的模型还是很友好的,免费的后面都会给你标注一个-free这在我们配置的时候很容易识别。

2.必要软件及下载安装配置

cherry-studio 下载地址:https://www.cherry-ai.com/download

node.js 下载地址:https://nodejs.org/zh-cn/download/

git 官方下载地址:https://git-scm.com/

其中git比较慢,我在评论区把下载好的网盘地址分享给大家。

Cherry的安装没有太多技巧,直接下一步即可,但要根据自己的系统情况进行下载。

Node.js下载的时候千万别选错芯片类型:

然后安装时勾选自动安装依赖:

几个必要的安装包安装完成之后,下面就是一键安装clawbot。

先确认自己的cherry设置导航栏是在左侧的。

图片

点左侧龙虾机器人图标,开始安装:

装完成之后,就可以进行模型配置了。

3.模型配置

打开cherryStudio的设置,然后将刚才准备的key填入对应的平台地址。

图片

注意一定要先添加免费模型:

还是当前操作界面,翻到最下面点管理,然后将免费模型加一些进来。这个是支持gemini和chatGPT的,很香。

图片

添加完测试一下, 选国内的模型厂商一般都是通的:

这样就可以开始体验clawdbot了。

回到clawdbot小图标,然后选择对应的模型启动。

图片

启动之后,我们就可以给自己的龙虾派任务了,你也拥有了直接免费的龙虾,当然,免费不是目的,如果你的投入产出理想的话也可以使用更强大的模型。

对于小白现在就可以用了,下面是进阶应用,需要懂点命令行的。

================================================

4. 推荐操作(建议全文保存)

4.1 安装clawhub并更换clawhub源到阿里云国内镜像

安装clawhub命令:

    npm i -g clawhub

    配置国内镜像源命名:

      openclaw config set --global registry https://openclaw.registry.aliyuncs.com

      4.2 安装必要skill

      安装skill的命令

        clawhub install <技能名称>

        推荐安装的基础技能

        序号

        技能名称

        必装理由

        1

        tavily-search

        联网实时搜索,支持精准问答/热点查询,解决AI信息滞后问题

        2

        self-improving-agent

        让Agent记录错误并自我优化,交互越久越智能

        3

        find-skills

        AI自动检索ClawHub并推荐适配技能,解决「装什么」痛点

        4

        clawhub-update

        一键更新所有已装技能,同步官方最新版本

        5

        session-manager

        管理OpenClaw会话,支持一键保存/恢复对话内容

        5.连接飞书或钉钉远程调度机器人

        很多人推荐安装飞书,可能出于办公自动化需要,但是我实际测试发现飞书限流,很多语句会丢包,所以最终选择了钉钉,基本上面配置很简单。

        先安装钉钉依赖插件:

          openclaw plugins install https://github.com/soimy/clawdbot-channel-dingtalk.git

          (如果访问不了,直接问一下找一找内地镜像下载下来,告诉你openclaw自己装,然后把必要的key直接发给机器人,机器人可以自己装)

          然后:

          登录钉钉开放平台(https://open.dingtalk.com),切换到你的企业。

          创建企业内部应用

          获取应用凭证

          添加并配置机器人

          发布应用与机器人

          (可选)开启 AI 卡片流式输出

          效果:

          这样,你就可以远程指挥自己的机器人了,随时随地给他发命令让他干活儿。

          6.记忆增强(节省Token消耗)

          节省token的最佳方式是增强机器人的记忆,所以我这里使用的是memOS,key是免费的,我还是觉得有key的更好一点。

          安装命令(也可以把你的密钥丢给机器人让他自己装)

            openclaw plugins install github:MemTensor/MemOS-Cloud-OpenClaw-Plugin

            这样你的Token消耗就可以大幅节省,据说可以达到75%以上的账单压缩。

            后续相关新的小技巧就在本页评论区更新了,大的玩法攻略会单独更新到AI Agent专题中。

            Read more

            GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果

            GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果 你不需要配置环境、不用写一行推理代码、甚至不用打开终端——只要把一张截图拖进浏览器窗口,几秒钟后,它就能告诉你图里写了什么、画了什么、哪里有问题。这不是未来预告,而是你现在就能在本地跑起来的真实体验。 GLM-4.6V-Flash-WEB 是智谱AI最新开源的轻量级视觉语言模型,专为Web端实时交互而生。它不像某些“实验室模型”那样只存在于论文和Benchmark表格里,而是真正做到了:部署快、启动快、响应快、上手更快。一块RTX 3090,一个浏览器,一次拖拽,结果即刻呈现。 本文不讲训练原理,不列参数表格,不堆技术术语。我们只聚焦一件事:怎么用好它的Web界面?从零开始,到稳定产出,每一步都清晰可操作。 1. 为什么说“拖图就出结果”不是宣传话术? 很多多模态模型标榜“支持图文理解”,但实际用起来才发现:要装依赖、改路径、调精度、修CUDA版本、

            前端防范 XSS(跨站脚本攻击)

            目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

            详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

            详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

            目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

            Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

            Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.