Clawdbot 上手实录:部署+反代+WebAuth 一步到位

Clawdbot 上手实录:部署+反代+WebAuth 一步到位

这两天,Clawdbot 在技术圈突然爆火,不少人已经开始在服务器上尝鲜部署。但真正跑起来之后才发现,Web 控制台、HTTPS、安全访问这些问题一个都绕不开。
这篇文章就简单记录一下 Clawdbot 的部署过程,以及如何通过宝塔面板做反向代理并加一层 Web Auth,让它用起来方便,也更安全。

安装Clawdbot

1. 登录面板,打开SSH终端,或直接打开SSH终端

  • 常用系统Debian/Ubuntu/CentOS,可直接指向以下命令安装
curl -fsSL https://clawd.bot/install.sh | bash

部分国产操作系统如OpenCloudOS/Alibaba Cloud Linux,请先到面板-网站-Node项目-Node版本管理器-右上角更新版本列表-安装最新稳定版v24.13.0

图片

并设置命令行版本为刚刚安装的稳定版

图片

然后终端执行以下命令安装

npm install -g clawdbot@latest

2. 安装完成后执行以下命令进行初始化,如若脚本安装会自动进入初始化页面,可忽略下面的命令。

clawdbot onboard --install-daemon

图片

3. 根据流程提示完成初始化配置:

  • I understand this is powerful and inherently risky. Continue?(我知道这个功能很强,但也存在风险,要继续吗?)按左方向键,选择yes
  • Select channel (QuickStart)(选择通道),根据自己需要选择渠道并按提示完成配置,我这里使用网页对话,直接跳过,大家可以根据自己需要选择

安装完成后会展示Token,注意保存,一会会用到

图片

剩下的几个API配置我先默认跳过,实际使用时根据自己需要选择

图片

根据需要选择自己的技能,空格键选中,最后按回车键确认,等待安装即可,如果不想现在安装可以选择第一项跳过。

图片

Configure skills now? (recommended)(配置技能),配置技能并选择安装技能的方式,默认选择即可。

图片

Model/auth provider(模型 / 鉴权提供方),根据自己需要选择并设置,请注意,此处列表里面的Moonshot、Qwen,默认为国际站端点,国内账户可能无法使用。

图片

Onboarding mode(引导模式)默认快速开始即可

图片

4. 安装服务:面板或者腾讯云/阿里云控制台免密登录方式无法完成服务安装,需要使用SSH客户端连接到服务器,并执行以下命令安装服务。

clawdbot daemon install

图片

5. 安装完成执行以下命令启动

clawdbot daemon start

图片

配置反向代理

1. 服务默认监听本地端口,不支持公网访问,因此需要配置反向代理,打开面板-网站-PHP,添加项网站,并设置域名(我这里用IP做演示)

图片

2. 打开站点设置-SSL,为站点配置SSL证书

3. 点击反向代理-添加配置反向代理,并填写以下配置

图片

4. 配置完成后找到之前保存的Token

图片

替换Token域名为实际域名,例如我这里将

http://localhost:18789/?token=d275f89c6905729e850634de060e64a30822b5264fe99703

替换成

https://43.133.61.18/?token=d275f89c6905729e850634de060e64a30822b5264fe99703

正常应该看到如下提示

图片

5. 回到终端,执行以下命令,查看待授权的访问

clawdbot devices list

图片

6. 执行以下命令,批准访问

clawdbot devices approve request-id

如:

clawdbot devices approve 54c0def3-e60a-4074-ad43-19887d222d7f

执行成功将看到以下提示:

图片

页面状态也会变成OK

图片

7. 此时我们就可以试着和他进行对话

图片

配置BasicAuth

如果想要再加固一层,可以配置BasicAuth,但面板的访问限制无法对反向代理直接生效,因此我们需要手动修改配置:

1. 打开终端,执行以下命令,生成htpasswd文件

printf "用户名:$(openssl passwd -apr1 密码)\n" > /www/server/nginx/conf/clawd.pass

请替换用户名和密码,例如:

printf "clawd:$(openssl passwd -apr1 clawd123)\n" > /www/server/nginx/conf/clawd.pass

图片

生成后执行以下命令修改权限:

chown root:www /www/server/nginx/conf/clawd.pass                                                chmod 640 /www/server/nginx/conf/clawd.pass

2. 回到网站-设置-反向代理-配置文件

图片

3. 打开并添加以下内容:​​​​​​​

auth_basic "Authorization"; auth_basic_user_file /www/server/nginx/conf/clawd.pass;

图片

4. 点击保存,服务会自动重载。

5. 再次访问,应该可以看到需要输入用户名和密码,输入刚才设置的用户名和密码点击登录即可。

图片

到这里,Clawdbot 的部署和访问就算完整跑通了。整体来看,Clawdbot 本身并不复杂,真正容易踩坑的反而是访问方式和安全边界:本地监听、Token 授权、HTTPS、以及如何避免直接暴露在公网。

通过宝塔面板做一层反向代理,再加上 Basic Auth,把这些问题一次性解决,既不影响使用体验,也能让人用得更放心。

当然最终来说,如果你在终端已经完成了所有配置,包括相关的聊天通道,不需要在网页管理和使用,那你完全可以忽略反向代理的步骤,那样也会变得更安全一些。

Read more

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

前言 通义万相2.1作为一个开源的视频生成AI模型,在发布当天便荣登了VBench排行榜的榜首,超越了Sora和Runway等业内巨头,展现出惊人的潜力。模型不仅能够生成1080P分辨率的视频,而且没有时长限制,能够模拟自然动作,甚至还可以还原物理规律,这在AIGC领域中简直堪称革命性突破。通过蓝耘智算平台,我们能够轻松部署这个模型,创建属于自己的AI视频生成工具。今天,我将为大家深入探讨通义万相2.1的强大功能,并分享如何利用蓝耘智算平台快速入门。 蓝耘智算平台 1. 平台概述 蓝耘智算平台是一个为高性能计算需求设计的云计算平台,提供强大的计算能力与灵活服务。平台基于领先的基础设施和大规模GPU算力,采用现代化的Kubernetes架构,专为大规模GPU加速工作负载而设计,满足用户多样化的需求。 2. 核心优势 * 硬件层: 蓝耘智算平台支持多型号GPU,包括NVIDIA A100、V100、H100等高性能显卡,能够通过高速网络实现多机多卡并行计算,突破单机算力瓶颈。 * 软件层: 集成Kubernetes与Docker技术,便于任务迁移与隔离;支持PyTo

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 llama.cpp 的作者所开发。 现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。 官方介绍,优势如下: * 完全免费、开源且由社区驱动 * 在所有硬件上表现出色 * 高级上下文和前缀缓存 * 并行和远程用户支持 * 极其轻量级且内存高效 * 充满活力且富有创造力的社区 * 100% 隐私 使用之前需要先安装 llama.cpp server 我还是喜欢命令行直接安装 ## Winget (Windows)winget install llama.cpp## Homebrew (Mac and Linux)brew install llama.

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景 VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!! (Github Copilot Chat 中使用OpenAI兼容的自定义模型。) 🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能: “实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。” 🤗 官方解决方案:安装VSCode扩展支持 你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot 通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek

Copilot助力AI原生应用:提升开发效率的5种方法

Copilot助力AI原生应用:提升开发效率的5种方法 关键词:GitHub Copilot、AI原生应用、开发效率、代码生成、智能补全、上下文感知、开发协作 摘要:在AI原生应用(AI-Native Apps)的开发浪潮中,开发者面临着代码复杂度高、迭代速度快、跨模态能力需求强等挑战。作为GitHub与OpenAI联合推出的AI代码助手,GitHub Copilot通过“代码即自然语言”的交互方式,正在重塑开发者的工作流。本文将结合真实开发场景,拆解Copilot提升效率的5种核心方法,并通过实战案例演示如何在AI原生应用中最大化发挥其价值。 背景介绍 目的和范围 本文旨在帮助开发者(尤其是AI原生应用开发者)掌握GitHub Copilot的核心能力,通过具体方法和实战案例,解决“如何用AI工具提升开发效率”的实际问题。内容覆盖从基础功能到高阶技巧,适用于前端、后端、全栈开发场景。 预期读者 * 正在开发AI原生应用(如智能客服、推荐系统、AIGC工具)的开发者 * 希望优化现有开发流程的技术团队 * 对AI辅助开发工具感兴趣的技术管理者