ClawdBot入门指南:Web Dashboard访问失败的4种原因与修复方案

ClawdBot入门指南:Web Dashboard访问失败的4种原因与修复方案

ClawdBot 是一个你可以在自己设备上运行的个人 AI 助手,本应用使用 vLLM 提供后端模型能力。它不像云端服务那样需要注册账号、等待排队或担心隐私泄露,而是一个真正属于你自己的本地化智能中枢——能对话、能推理、能调用工具、还能通过 Web 界面直观管理所有功能。

但很多用户在首次部署后会遇到同一个问题:打开浏览器输入 http://localhost:7860 或类似地址,页面却显示“无法访问此网站”“连接被拒绝”“空白页”甚至直接 404。这不是模型没跑起来,也不是代码写错了,而是 ClawdBot 的 Web Dashboard 有一套主动安全机制:它默认不对外暴露,也不自动放行任何访问请求。就像家门装了智能门锁,钥匙得亲手配、访客得亲自确认。

本文不讲原理、不堆参数,只聚焦一个目标:让你的 Dashboard 在 5 分钟内稳稳打开、正常交互、顺利开始使用。我们梳理出实际部署中导致访问失败的 4 种高频原因,并给出每一种对应的、可立即执行的修复方案——全部基于真实终端操作和配置文件修改,不依赖猜测,不绕弯子。


1. 设备授权未完成:Pending 请求卡住入口

ClawdBot 的 Web 控制台采用设备配对机制(Device Pairing),首次访问时,前端会向后端发起一个认证请求,该请求不会自动通过,而是进入 pending 状态。此时 Dashboard 页面加载失败,但后端其实已正常运行。

1.1 如何确认是这个问题?

在终端中执行:

clawdbot devices list 

如果输出中包含类似以下内容,且状态为 pending,就说明问题在此:

ID Status Created At Last Seen d1a2b3c4 pending 2026-01-24 14:22:03 - 
注意:这个命令必须在 ClawdBot 进程正在运行的前提下执行。如果提示 command not found,请先确认是否已正确安装并激活环境。

1.2 修复步骤:手动批准设备请求

复制上面输出中的 ID(如 d1a2b3c4),执行批准命令:

clawdbot devices approve d1a2b3c4 

成功后你会看到类似提示:

 Device d1a2b3c4 approved. You may now access the dashboard. 

此时刷新浏览器,Dashboard 即可正常加载。

1.3 补充说明:为什么设计成手动批准?

这是 ClawdBot 的隐私保护设计。它默认不信任任何未经验证的客户端连接,避免本地服务被局域网内其他设备意外访问或扫描。你完全掌控谁可以连上你的 AI 助手——就像给路由器后台加了一道二次确认。


2. 本地监听地址未正确映射:服务只绑定了 127.0.0.1

ClawdBot 默认将 Web UI 绑定在 127.0.0.1:7860,这意味着它仅接受本机回环访问。如果你是在远程服务器(如云主机、树莓派)上部署,然后从自己电脑的浏览器访问 http://服务器IP:7860,就会失败——因为服务根本没监听那个 IP。

2.1 如何确认是这个问题?

执行以下命令查看当前监听地址:

ss -tuln | grep :7860 

如果输出只有:

tcp LISTEN 0 5 127.0.0.1:7860 0.0.0.0:* users:(("clawdbot",pid=1234,fd=10)) 

说明它只监听 127.0.0.1,不响应外部请求。

2.2 修复方案一:启用远程访问(推荐用于开发/测试)

编辑配置文件 /app/clawdbot.json(或 ~/.clawdbot/clawdbot.json):

{ "web": { "host": "0.0.0.0", "port": 7860, "enableCors": true } } 

注意:"host": "0.0.0.0" 表示监听所有网络接口;"enableCors": true 允许跨域请求(否则前端资源可能加载失败)。

保存后重启 ClawdBot 服务(如使用 Docker,则 docker restart clawdbot)。

2.3 修复方案二:SSH 端口转发(更安全,推荐生产环境)

无需改配置,直接在本地电脑终端执行:

ssh -N -L 7860:127.0.0.1:7860 user@your-server-ip 

然后在本地浏览器打开 http://localhost:7860 即可。这种方式不暴露服务到公网,所有流量经 SSH 加密隧道传输,安全性更高。


3. Token 链接未正确使用:带 token 的 URL 被忽略

ClawdBot 的 Dashboard 启用了 token 认证机制,每次启动都会生成一个一次性访问令牌(token)。即使服务已运行、地址也正确,缺少 token 的 URL 仍会被拒绝访问

3.1 如何获取有效 Token 链接?

在终端中运行:

clawdbot dashboard 

你会看到类似输出:

Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 

这个完整链接才是有效的。只访问 http://127.0.0.1:7860 是不行的。

3.2 常见误区与纠正

  • ❌ 错误做法:复制 http://127.0.0.1:7860 后手动拼接 token
  • 正确做法:完整复制整行 Dashboard URL: 后的链接,包括 ?token=... 部分
  • 注意:token 有有效期(默认 24 小时),过期后需重新运行 clawdbot dashboard 获取新链接

3.3 进阶技巧:让 token 永久生效(可选)

若希望每次启动都用固定 token,可在配置中指定:

{ "web": { "token": "my-super-secret-token-2026" } } 

这样生成的链接就是 http://127.0.0.1:7860/?token=my-super-secret-token-2026,便于书签收藏或自动化脚本调用。


4. vLLM 后端未就绪:Dashboard 已启动,但模型服务不可用

ClawdBot 的 Web 界面本身轻量,但它严重依赖后端 vLLM 服务提供模型推理能力。如果 vLLM 未启动、端口冲突、模型加载失败,Dashboard 虽然能打开,但会出现“加载中…”“模型不可用”“Connection refused”等提示,甚至白屏。

4.1 如何快速验证 vLLM 是否就绪?

ClawdBot 自带诊断命令:

clawdbot models list 

正常输出应类似:

Model Input Ctx Local Auth Tags vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default 

如果报错如 Error: failed to connect to vLLM at http://localhost:8000/v1,说明 vLLM 服务未运行或地址配置错误。

4.2 检查 vLLM 配置是否匹配

打开 /app/clawdbot.json,确认 models.providers.vllm.baseUrl 与你实际运行的 vLLM 地址一致:

"providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "apiKey": "sk-local", "api": "openai-responses" } } 

常见错误:

  • vLLM 实际运行在 http://127.0.0.1:8000/v1,但配置写成了 http://localhost:8000/v1(在某些容器环境中二者不等价)
  • vLLM 使用了非标准端口(如 8080),但配置仍是 8000
  • vLLM 运行在另一台机器,但 baseUrl 写的是 localhost

修复方法:统一改为 http://host.docker.internal:8000/v1(Docker 容器内访问宿主机)或实际 IP 地址。

4.3 一键启动 vLLM(以 Qwen3-4B 为例)

如果你尚未启动 vLLM,可用以下命令快速拉起(确保已安装 vLLM):

python -m vllm.entrypoints.api_server \ --model Qwen/Qwen3-4B-Instruct \ --dtype bfloat16 \ --tensor-parallel-size 1 \ --port 8000 \ --host 0.0.0.0 

启动成功后,再次运行 clawdbot models list,应能列出模型。


总结:4步定位,1次解决

Web Dashboard 打不开?别急着重装、别盲目查日志。按下面这个顺序快速排查,90% 的问题都能当场解决:

1. 检查设备授权

→ 运行 clawdbot devices list,若有 pending 条目,立即 approve

2. 确认监听地址

→ 运行 ss -tuln | grep :7860,若只绑定 127.0.0.1,则改配置 host: "0.0.0.0" 或用 SSH 转发

3. 使用完整 Token 链接

→ 必须运行 clawdbot dashboard 复制整条 URL,不能省略 ?token=...

4. 验证 vLLM 后端连通性

→ 运行 clawdbot models list,失败则检查 baseUrl 配置与 vLLM 实际运行状态

这四步不是理论推演,而是从上百次真实部署反馈中提炼出的最小可行路径。它们不依赖经验、不考验耐心,只要照着命令敲,就能看到 Dashboard 真正亮起来。

你不需要成为系统管理员,也不必读懂每一行 JSON。ClawdBot 的设计哲学是:强大,但不复杂;安全,但不繁琐;本地,但不封闭。

现在,关掉这篇指南,打开终端,输入第一条命令——你的个人 AI 助手,只差一次 approve


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

双模态无人机太阳能光伏红外可见光一一对应缺陷检测数据集,共650张 无人机可见光红外缺陷检测数据集 红外 + 可见光配对无人机红外可见光光伏缺陷检测数据集

双模态无人机太阳能光伏红外可见光一一对应缺陷检测数据集,共650张 无人机可见光红外缺陷检测数据集 红外 + 可见光配对无人机红外可见光光伏缺陷检测数据集

1 1 1 1 1 类别: dmjrb ns dyrb ejgdl zw yyzd ygfs ycdw dmjrb_ycdw dyrb_ycdw ✅ 一、数据集基本信息表 项目内容数据集名称无人机光伏太阳能板缺陷检测数据集(红外 + 可见光配对)总图像数量650 张(红外与可见光图像严格一一对应,共 650 对 → 1,300 张图像)模态类型双模态配对数据:• 红外热成像(Infrared)• 可见光图像(RGB)标注格式YOLO 格式(.txt 文件,适用于 YOLOv5/v8/v11 等)数据划分未明确说明,建议按 7:2:

抗辐照MCU在高空长航时无人机热管理系统中的可靠性研究

抗辐照MCU在高空长航时无人机热管理系统中的可靠性研究

摘要:高空长航时无人机(HALE UAV)在临近空间执行任务时面临复杂的大气辐射环境,其热管理系统的可靠性直接影响飞行安全与任务效能。本文以国科安芯AS32S601系列抗辐照微控制器(MCU)为研究对象,系统综述其在HALE UAV热管理系统中的应用潜力与可靠性验证方法。基于重离子单粒子试验、质子单粒子效应试验、总剂量效应试验及脉冲激光单粒子效应试验的多源数据,分析了该MCU在单粒子锁定(SEL)、单粒子翻转(SEU)及单粒子功能中断(SEFI)等效应模式下的响应特征,探讨了HALE UAV热管理系统中MCU与热电制冷、相变材料、强制对流等热控手段的协同设计策略,为临近空间飞行器热管理系统的抗辐照设计提供了理论参考与工程实践指导。 关键词: 高空长航时无人机;临近空间;抗辐照MCU;热管理系统;单粒子效应;可靠性验证;大气辐射 1 引言 商业航天产业的快速发展推动了临近空间开发利用的技术进步。高空长航时无人机(High Altitude Long Endurance Unmanned Aerial Vehicle, HALE UAV)飞行于距地面20-100 km的临近空间,具备

企业微信群通知机器人添加点击链接教程(图文 / Markdown 两种方式)

在使用企业微信群通知机器人时,很多开发者会有 “能否添加可点击链接” 的需求 —— 比如推送文档地址、业务系统入口、数据报表链接等。答案是:完全可以!本文将详细介绍两种核心实现方式(图文消息 / Markdown 消息),附完整代码示例和注意事项,新手也能快速上手。 一、前置准备:已获取群机器人 Webhook 地址 在添加链接前,需先完成群机器人的创建并获取 Webhook 地址,步骤回顾: 1. 进入企业微信目标群聊 → 点击右上角 “...” → 选择 “添加群机器人” → 新建机器人并命名; 2. 创建成功后,复制系统生成的 Webhook 地址(格式类似 https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxx),后续发送请求需用到该地址。 二、两种添加点击链接的实现方式

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

摘要: LazyLLM 是商汤大装置推出的开源低代码框架,作为构建和优化多 Agent 应用的一站式开发框架,覆盖应用搭建、数据准备、模型部署、微调、评测等全流程开发环节,提供丰富的工具支持。其以模块化设计打破传统开发壁垒,通过数据流驱动重构开发逻辑,能让开发者用极简代码实现工业级复杂 AI 应用,摆脱冗余编码束缚,聚焦核心业务场景,降低 AI 应用构建成本并支持持续迭代优化。堪称 AI 开发者的 “效率神器”,其技术普惠理念为 AI 开发领域带来新的实践范式,推动了更高效的开发模式。本文将以Python编程为切入点,带你深入了解LazyLLM框架。 LazyLLM 是构建和优化多 Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。 LazyLLM作为商汤大装置推出的开源低代码框架,简直是AI开发者的“效率神器”