Clawdbot(Moltbot)源码部署全实测:从环境搭建到 WebChat 验证,避坑指南收好

Clawdbot(Moltbot)源码部署全实测:从环境搭建到 WebChat 验证,避坑指南收好

一、为啥折腾 Clawdbot?

最近刷技术圈总刷到 Clawdbot(后来也叫 Moltbot),说是能搭私人 AI 助手,支持 WhatsApp、Telegram 这些常用通道,还能跑在自己设备上,不用依赖第三方服务 —— 想着拉下来测试一下功能,顺便研究一下其源码的实现。
于是拉上 GitHub 仓库https://github.com/openclaw/openclaw,打算从源码部署试试,过程里踩了不少坑,干脆整理成记录,给同样想折腾的朋友避避坑。

二、源码部署前的准备:Windows 环境优先选 WSL2

一开始想直接用 Windows CMD 部署,结果装依赖时各种报错,查仓库文档才发现 Windows 推荐用 WSL2(Ubuntu/Debian 镜像就行),后续操作全在 WSL2 里完成:

  1. 启用 WSL2:先在 Windows 功能里勾 “适用于 Linux 的 Windows 子系统” 和 “虚拟机平台”,重启后装 Ubuntu 22.04(微软应用商店直接搜)
  2. 配置 WSL2:打开 Ubuntu 终端,先更系统源(换阿里源,不然后续装包巨慢),再 sudo apt update && sudo apt upgrade -y
  3. 装 Git:sudo apt install git,验证 git --version,避免后续拉仓库出错

我没有执行这一步,导致后面构建项目报错,后面有其他的解决方案。

三、Node.js 安装:别踩 “版本不够” 的坑

仓库文档说要 Node≥22,这里使用nvm管理环境,并切换到node最新版本。

在这里插入图片描述


注意:不要用22以下的,在pnpm install会报错。

四、拉取源码 & 装依赖

1、安装依赖

git clone https://github.com/openclaw/openclaw.git cd openclaw pnpm install 

在安装依赖时候会报错:

在这里插入图片描述


问题分析
node-llama-cpp 的 postinstall 脚本失败,错误码 3221225477 通常表示:
访问冲突或权限问题或Windows 上缺少必要的构建工具

node-llama-cpp 是可选依赖,仅用于本地嵌入。如果使用远程嵌入(如 OpenAI),可忽略该错误。项目会回退到远程嵌入。故注释掉 package.json 里面的 node-llama-cpp的依赖,重新进行 pnpm install

在这里插入图片描述

2、构建项目

前面安装依赖没问题之后,先构建ui

pnpm ui:build 
在这里插入图片描述


构建项目

pnpm build 
在这里插入图片描述


这是由于OpenClaw 在 Windows 上推荐使用 WSL2。在原生 Windows 上构建需要 bash。检查是否有 Git Bash 可用,或创建一个 Node.js 版本的构建脚本:
此处在项目的/script 目录下创建一个 nodejs版本的构建脚本 bundle-a2ui.mjs,代码如下:

#!/usr/bin/env nodeimport{ createHash }from"node:crypto";import{ promises as fs }from"node:fs";import path from"node:path";import{ fileURLToPath }from"node:url";import{ spawn }from"node:child_process";import{ promisify }from"node:util";const spawnAsync =promisify(spawn);const __filename =fileURLToPath(import.meta.url);const __dirname = path.dirname(__filename);constROOT_DIR= path.resolve(__dirname,"..");constHASH_FILE= path.join(ROOT_DIR,"src/canvas-host/a2ui/.bundle.hash");constOUTPUT_FILE= path.join(ROOT_DIR,"src/canvas-host/a2ui/a2ui.bundle.js");constA2UI_RENDERER_DIR= path.join(ROOT_DIR,"vendor/a2ui/renderers/lit");constA2UI_APP_DIR= path.join(ROOT_DIR,"apps/shared/OpenClawKit/Tools/CanvasA2UI");asyncfunctioncheckDirExists(dir){try{const stat =await fs.stat(dir);return stat.isDirectory();}catch{returnfalse;}}asyncfunctionwalk(entryPath, files =[]){const st =await fs.stat(entryPath);if(st.isDirectory()){const entries =await fs.readdir(entryPath);for(const entry of entries){awaitwalk(path.join(entryPath, entry), files);}return files;} files.push(entryPath);return files;}functionnormalize(p){return p.split(path.sep).join("/");}asyncfunctioncomputeHash(){const inputPaths =[ path.join(ROOT_DIR,"package.json"), path.join(ROOT_DIR,"pnpm-lock.yaml"),A2UI_RENDERER_DIR,A2UI_APP_DIR,];const files =[];for(const inputPath of inputPaths){try{const stat =await fs.stat(inputPath);if(stat.isDirectory()|| stat.isFile()){awaitwalk(inputPath, files);}}catch{// Path doesn't exist, skip}} files.sort((a, b)=>normalize(a).localeCompare(normalize(b)));const hash =createHash("sha256");for(const filePath of files){const rel =normalize(path.relative(ROOT_DIR, filePath)); hash.update(rel); hash.update("\0");const content =await fs.readFile(filePath); hash.update(content); hash.update("\0");}return hash.digest("hex");}asyncfunctionrunCommand(command, args, options ={}){returnnewPromise((resolve, reject)=>{const proc =spawn(command, args,{...options,stdio:"inherit",shell:false,}); proc.on("close",(code)=>{if(code ===0){resolve();}else{reject(newError(`Command failed with exit code ${code}`));}}); proc.on("error", reject);});}asyncfunctionmain(){try{// Docker builds exclude vendor/apps via .dockerignore.// In that environment we must keep the prebuilt bundle.if(!(awaitcheckDirExists(A2UI_RENDERER_DIR))||!(awaitcheckDirExists(A2UI_APP_DIR))){ console.log("A2UI sources missing; keeping prebuilt bundle."); process.exit(0);}const currentHash =awaitcomputeHash();let shouldBuild =true;try{const previousHash =await fs.readFile(HASH_FILE,"utf-8");const outputExists =await fs .access(OUTPUT_FILE).then(()=>true).catch(()=>false);if(previousHash.trim()=== currentHash && outputExists){ console.log("A2UI bundle up to date; skipping."); shouldBuild =false;}}catch{// Hash file doesn't exist, need to build}if(shouldBuild){ console.log("Building A2UI bundle...");awaitrunCommand("pnpm",["-s","exec","tsc","-p", path.join(A2UI_RENDERER_DIR,"tsconfig.json")]);awaitrunCommand("pnpm",["-s","exec","rolldown","-c", path.join(A2UI_APP_DIR,"rolldown.config.mjs")]);await fs.writeFile(HASH_FILE, currentHash,"utf-8"); console.log("A2UI bundle built successfully.");}}catch(error){ console.error("A2UI bundling failed. Re-run with: pnpm canvas:a2ui:bundle"); console.error("If this persists, verify pnpm deps and try again."); console.error(error); process.exit(1);}}main();

重新构建项目 pnpm build

在这里插入图片描述


构建完成。

六、配置 OpenClaw

直接跑向导 pnpm openclaw onboard --install-daemon

在这里插入图片描述


进来这个提示,先按照yes和quickstart方式快速配置

在这里插入图片描述


**配置模型:**这里选择智谱AI

在这里插入图片描述


配置api-key

在这里插入图片描述


配置channel
支持接入不同的app,这里没有不支持微信等国内的生态,暂时先跳过,使用webchat测试。

在这里插入图片描述


配置skills

在这里插入图片描述



可选的内置skills很多,注意,这里按空格选中,选好之后,按回车保存。
但选择对应的skills后,很多需要配置对应的key才能使用,这个需要提前在对应的网站申请key。

在这里插入图片描述


配置Hooks:
先跳过,暂时不用。

在这里插入图片描述


启动Gateway service
保存好上面配置后,会自动启动网关服务。

在这里插入图片描述


在这里插入图片描述


同时ui应用也会启动,至此配置完成

七、发送消息没有响应

第一次启动配置完后,发现发送消息并没有得到响应,控制台也没有报错。

在这里插入图片描述


后来发现是我的GLM4.7 限额了。这时候可以直接修改 openclaw.json配置文件进行修改配置。

在这里插入图片描述


改为flash模型

在这里插入图片描述


后续所有和openclaw agent相关的配置都可以通过修改该文件,不需要重复进入向导配置。

注意:修改后记得重启 gateway service ,否则不生效。
pnpm openclaw gateway restart --allow-unconfigured

在这里插入图片描述


可使用 openclaw status查看网关启动状态

在这里插入图片描述

八、常用命令

  1. 查看状态:openclaw status(快速看 Gateway 和通道是否在线)
  2. 发送测试消息:openclaw message send --to 自己的手机号(带国家码,比如 + 86138xxxxxxx) --message “测试 Clawdbot”,能收到消息说明通道没问题
  3. 重置会话:openclaw agent --reset(对话卡顿时用)
  4. 检查问题:openclaw doctor(神器!会提示配置和环境的问题,比如 DM 策略风险、依赖缺失)
  5. 更新版本:openclaw update --channel stable(新手别更 dev 通道,不稳定)

九、WebChat 测试

由于没有接入其他channel,这里直接用原生的ui webchat进行测试。

测试调用工具读取文件的能力

在这里插入图片描述

测试其 Computer Use的能力

直接写入文件到系统。

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


可见其调用工具,Computer use能力还是比较强的

Read more

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册 1. 为什么你需要这个镜像——告别密钥混乱与模型适配烦恼 你是否遇到过这样的场景: * 项目里同时调用文心一言写营销文案、用ChatGLM做内部知识问答、再接入通义千问生成技术文档,结果每个模型都要单独配置api_key、base_url、请求头格式、流式开关逻辑……代码里堆满条件判断; * 测试环境用的是本地Ollama的Qwen2,生产环境切到百度千帆的文心一言4.5,一改base_url和模型名,就报400 Bad Request——原来千帆不支持OpenAI原生的temperature字段命名,得改成top_p; * 运维同事半夜被报警电话叫醒:“线上服务崩了!查了一小时发现是讯飞星火的API密钥过期了,但没人知道它被用在哪个微服务里……” 这些问题,不是你代码写得不够好,而是缺一个统一的API网关层。 这不是一个需要你从零搭建的复杂系统,而是一个真正“开箱即用”的镜像——它把所有主流大模型(包括ChatGLM、文心一言、通义千问、讯飞星火等)的差异全部封装掉,对外只暴露标准的OpenAI API

AIGC情感化升级实战:如何将智能客服投诉率从12%降至3.2%

背景痛点:为什么你的智能客服总被投诉? 智能客服已经成为企业服务标配,但高投诉率却让很多技术团队头疼。行业平均12%的投诉率背后,隐藏着几个关键的技术短板。 首先,传统规则引擎和简单意图识别无法捕捉用户情绪。当用户说“我的订单还没到”,系统可能只识别“查询订单”意图,却忽略了语气中的焦急和不满。这种情感盲区导致回复机械,无法安抚用户情绪。 其次,上下文断裂问题严重。用户在多轮对话中提及的信息,系统经常“忘记”,导致用户需要反复说明问题,体验极差。 最后,回复生成缺乏人性化。基于模板的回复千篇一律,无法根据用户情绪调整语气和措辞,让用户感觉在与机器对话。 这些痛点叠加,最终导致用户满意度下降,投诉率居高不下。要解决这些问题,我们需要为智能客服注入“情感智能”。 技术方案:构建情感化智能客服的三层架构 1. 情感识别模型选型:BERT vs LSTM的实战对比 情感识别是情感化升级的基础。我们对比了两种主流方案: LSTM方案: * 优点:训练速度快,资源消耗低,在小规模标注数据上表现良好 * 缺点:

AI绘画助手Moondream2:一键反推高清图片提示词

AI绘画助手Moondream2:一键反推高清图片提示词 你是否曾盯着一张惊艳的AI生成图反复琢磨:“这提示词到底怎么写的?” 是否在Stable Diffusion或SDXL里反复调试几十次,却始终达不到原图的光影质感、构图张力或细节密度? 更别提那些藏在专业作品背后的隐藏技巧:“8k resolution, cinematic lighting, subsurface scattering on skin”——这些精准到毫米级的描述,普通人根本无从下手。 今天要介绍的不是又一个“更大更快”的模型,而是一个专为AI绘画者量身打造的视觉翻译器:🌙 Local Moondream2。它不生成图,却比任何画图工具都更懂“如何让AI画出好图”。它把一张图变成一段可复制、可复用、可微调的专业级英文提示词,全程本地运行,零数据上传,三秒出结果。 这不是概念演示,而是我过去两周每天高频使用的生产力插件——修图前先丢给Moondream2“读图”,再把生成的提示词粘贴进ComfyUI节点,出图质量提升最直观的体现是:第一次生成就接近终稿,省下90%的重绘时间。 1. 它不是另一个VLM,

一杯咖啡成本搞定多模态微调:FC DevPod + Llama-Factory 极速实战

作者:王骜 作为一个 AI 开发者,你一定经历过这样的绝望时刻:兴致勃勃地下载了最新的 Qwen2-VL 权重,准备用自己的垂直领域数据跑一次 SFT(监督微调)。然而,现实却是残酷的—— * RuntimeError: CUDA out of memory—— 显存不够,模型加载失败。 * Driver/Library version mismatch—— 驱动版本不对,环境配置陷入死循环。 * 看着云厂商 GPU 实例高昂的包月账单,犹豫着要不要为了这几小时的实验按下“购买”键。 技术的进步本该是为了释放创造力,而不是增加门槛。在 Serverless 时代,算力应该像水电一样,扭开水龙头就有,关上就停,按需付费。 今天,我们将打破“微调=昂贵+麻烦”的刻板印象。不需要囤积显卡,也不需要精通运维,