OpenClaw启动后,web控制面板无法登录,返回信息:Not Found

OpenClaw启动后,web控制面板无法登录,返回信息:Not Found

在1.19这台服务器安装了OpenClaw,不管用浏览器,还是直接使用curl,都是返回信息:Not Found

但是1.12这台服务器就没有问题...

curl http://localhost:18789
Not Found

查看绑定情况

openclaw config get gateway.bind 🦞 OpenClaw 2026.3.2 (85377a2) — I'm not saying your workflow is chaotic... I'm just bringing a linter and a helmet. loopback

绑定到lan

打开网络连通

openclaw config set gateway.bind lan

重启gateway

openclaw gateway restart

设备列表和配对

 配置设备对

openclaw devices list

批准

openclaw devices approve

不管用

看npm版本

 npm -v 11.3.0

升级到11.11

npm install -g [email protected]

然后重新build

没有用npmp安装

​ pnpm store prune rm -rf node_modules # 重新安装依赖并构建 pnpm install ​

而是用npm重新安装

npm i -g openclaw openclaw onboard 

问题照旧。

尝试删除OpenClaw然后重装

先删除

openclaw uninstall

删除完毕:

openclaw uninstall 🦞 OpenClaw 2026.3.2 (85377a2) — Your task has been queued; your dignity has been deprecated. │ ◇ Uninstall which components? │ Gateway service, State + config, Workspace │ ◇ Proceed with uninstall? │ Yes Stopped systemd service: openclaw-gateway.service Removed systemd service: /home/skywalk/.config/systemd/user/openclaw-gateway.service Removed ~/.openclaw Removed ~/.openclaw/workspace CLI still installed. Remove via npm/pnpm if desired.

重新安装了一遍,问题都没解决

最终安装openclaw-cn来解决

最后是安装了openclaw-cn解决的。显示:

Read more

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

前期环境配置等准备可参考教程: 多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例 这里数据来源 Open-EQA 多模态具身智能数据集,经过处理每个样本八张图片,划分为训练-验证集和测试集。 若对下载和处理open-eqa数据集代码有兴趣,可以通过网盘分享的文件:OpenEQACode.zip 链接: https://pan.baidu.com/s/1DqmIp1Xw6HJPX77O-iOXdQ?pwd=dgn8 提取码: dgn8 如果不方便下载和处理open-eqa数据集,可以通过网盘分享的文件:OpenEQA8s.zip 链接: https://pan.baidu.com/s/1_6G4YwI5tmYXUSDLssJ13A?pwd=hfvw 提取码: hfvw 1.微调训练 有cuda显卡可以执行pip install unsloth可以安装Unsloth加快训练和推理 执行pip install tensorboard安装保存完整训练过程的数据,避免中断只能部分曲线

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

Nano-Banana多场景落地:AR拆解引导、VR培训素材、数字孪生底图生成

Nano-Banana多场景落地:AR拆解引导、VR培训素材、数字孪生底图生成 想象一下,你手里有一台复杂的工业设备,需要向新员工讲解它的内部结构。传统的做法是翻看厚厚的纸质手册,或者观看一段可能已经过时的视频。但现在,你可以直接生成一张高清、立体的“爆炸图”,将设备的所有零件清晰地平铺展示,每个部件都标注得清清楚楚。这,就是Nano-Banana带来的改变。 它不是一个普通的AI画图工具,而是一个专为“拆解”而生的视觉引擎。无论是为了制作AR维修指引、开发VR培训课程,还是构建数字孪生的可视化底图,Nano-Banana都能将你的产品、设备或概念,瞬间解构成一张专业级的技术图解。 1. 项目简介:你的专属产品拆解视觉引擎 简单来说,Nano-Banana是一个轻量级的AI图像生成系统,但它只专注于一件事:生成高质量的产品拆解图、部件平铺图(Knolling)和爆炸视图(Exploded View)。 它的核心秘密在于深度融合了专属优化的“Turbo LoRA”微调权重。你可以把它理解为一个经过特殊训练的“大脑”,这个大脑看过并学习了海量优秀的工程拆解图、产品爆炸图。因此,

告别 GitHub Copilot?Roo Code 深度上手指南:从API配置到实战,打造你的 AI 编程私有云

告别 GitHub Copilot?Roo Code 深度上手指南:从API配置到实战,打造你的 AI 编程私有云

前言:除了 Copilot,我们还能期待什么? 作为一名在代码世界摸爬滚打多年的开发者,你是否感觉到 IDE 的进化似乎到了一个瓶颈? 过去的十年,我们见证了从“记事本”到“智能感知 (IntelliSense)”,再到 GitHub Copilot 的“智能补全”。但说实话,现在的 AI 编程助手大多还停留在“副驾驶”的位置——你需要时刻盯着它,光标移到哪,它补到哪。一旦逻辑复杂一点,它就只能给你生成一堆看似通顺实则跑不通的“幻觉代码”。 如果 AI 不再只是“补全代码”,而是像一个真正的初级工程师那样,能理解你的需求、自己规划任务、跑测试、修 Bug 呢? 这就是我们将要讨论的主角:Roo Code。它代表了软件工程的第四阶段——自主智能代理 (Autonomous Agents)。在这个阶段,