【AI Agent】Clawdbot 通用部署与配置教程(Ubuntu Server / Copilot / Telegram)

【AI Agent】Clawdbot 通用部署与配置教程(Ubuntu Server / Copilot / Telegram)

本文给出一套 Clawdbot 部署流程:在 Ubuntu 服务器上安装并运行 Clawdbot Gateway,选择 GitHub Copilot 模型(可替换为其他 provider),接入聊天机器人。
在跟着本文进行部署之前,你应该已经做好下面的准备:

  1. 一个LLM服务的API KEY,本文使用Copilot,你可以通过Github学生认证免费获取Copilot Pro服务,其他提供商,如月之暗面的API KEY也是可以的
  2. 一个可以使用的机器人服务,本文使用telegram的机器人,同样的你也可以使用What’s APP等其他软件的机器人
  3. 一台运行Linux系统的服务器,虽然Windows系统的部署同理,但是本文只针对Linux系统,笔者使用的是Ubuntu 22.04,服务器配置2H2G

前置准备

  1. 一台 Ubuntu 服务器(建议 22.04+)
  2. 一个非 root 的业务用户(clawd的权限非常高,root权限可能会让他做危险操作)
  3. 一个可用的 GitHub 账号 已开通 GitHub Copilot 订阅(或组织授权)
  4. 若接入相应的聊天机器人,准备相应的api key

安装基础工具:

sudoapt update sudoapt -y installcurl ca-certificates gitlsof

安装 Node.js

安装 nvm

curl -fsSL https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh |bash

安装完成后,让当前 shell 立即加载 nvm(推荐直接重新加载 shell):

execbash

验证 nvm 是否可用:

command -v nvm nvm --version 

如果能输出路径/版本号,就说明安装成功。

用 nvm 安装 Node(推荐25)

nvm install25 nvm use 25 nvm alias default 25

PS:许多教程在这里推荐安装22,但是最近Clawdbot社区反应22版本的Clawdbot在配置telegram机器人的时候会遇到bug无法启动,所以建议直接上25,并nvm也支持多版本切换,比较实用

验证安装是否完成

node -v npm -v whichnode

安装 Clawdbot

用 npm 全局安装:

sudonpm i -g clawdbot 

验证:

clawdbot -V clawdbot help

初始化本地配置与工作区:

clawdbot setup 

运行引导配置

clawdbot onboard 

这里主要是选择一下配置
第一个我们选择Yes
接着模型我们选择Copilot 稍加等待后会弹出一个网址和一个八位代码
进入这个网址登录我们的github账号,输入代码授权,Clawdbot就可以使用我们的Copilot了
机器人代理我们选择Telegram,这里需要我们先去BotFather注册一个机器人,具体的可以查看其他教程
然后Skills和其他功能根据自己的需要选择Yes或No

启动 Gateway

建议先用最小启动命令,确认能启动并监听端口:

clawdbot gateway --bind loopback --port 18789

检查监听:

sudolsof -iTCP:18789 -sTCP:LISTEN -n -P 

本机访问(如果你在服务器上):

Dashboard:http://127.0.0.1:18789/ WebSocket:ws://127.0.0.1:18789 

一般gateway启动成功就代表模型配置成功了,可以直接去对应的机器人聊天界面尝试一下对话

Read more

【AIGC】ChatGPT 记忆功能揭秘:使用与管理的全方位指南

【AIGC】ChatGPT 记忆功能揭秘:使用与管理的全方位指南

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯记忆功能的概念与作用 * 概念解析 * 作用详述 * 总结 * 💯记忆功能的开启与关闭 * 开启记忆功能 * 关闭记忆功能 * 关闭记忆功能的影响 * 注意事项 * 总结 * 💯查看与管理记忆 * 查看已保存的记忆: * 删除特定记忆 * 删除全部记忆 * 记忆的隐私保护 * 总结 * 💯记忆功能的隐私保护 * 用户控制权 * 安全与隐私保障 * 隐私政策的透明度 * 后端操作的透明度 * 总结 * 💯记忆功能与GPTs的关系 * 当前状态 * 拓展理解 * 未来展望 * 潜在影响 * 隐私与安全考虑 * 总结 * 💯记忆功能的训练应用 * 记忆数据的训练用途 * 行为模式识别 * 记忆功能的训练影响 * 用户选择与数据使用 * 长期影响和道德考量 * 总结 *

亲测Z-Image-ComfyUI:AI绘画中文提示词效果惊艳

亲测Z-Image-ComfyUI:AI绘画中文提示词效果惊艳 最近在本地部署了阿里新开源的 Z-Image-ComfyUI 镜像,连续测试了三天,从“试试看”到“真香”,再到“这中文理解也太准了吧”,整个过程像拆开一个层层惊喜的盲盒。最让我意外的不是它出图快、显存占用低,而是——输入一句大白话中文,它真的能听懂、记得住、画得准。 过去用 Stable Diffusion 系列模型时,中文提示词总像隔着一层毛玻璃:写“水墨风山水画”,结果冒出半张人脸;写“穿旗袍的女士坐在苏州园林亭子里”,人物站姿歪斜、亭子比例失真、连“苏州”两个字都可能被误读成“苏洲”。而 Z-Image-Turbo 在同一台 RTX 4090(16G 显存)上跑起来,不仅生成速度肉眼可见地快,更关键的是——它对中文语义的理解,是真正“语义级”的,

AI绘画新体验:FLUX.1文生图+SDXL风格保姆级教程

AI绘画新体验:FLUX.1文生图+SDXL风格保姆级教程 你是否试过输入一句“赛博朋克雨夜东京街头”,3秒后眼前弹出一张光影锐利、霓虹浸染、细节炸裂的4K图像?这不是概念图,而是FLUX.1-dev-fp8-dit在ComfyUI中真实跑出来的第一帧结果。它不靠堆参数,不靠拉长步数,而是用FP8精度+DiT架构+SDXL Prompt风格协同发力,把“所想即所得”的AI绘画体验,真正拉进日常创作节奏。 1. 为什么这次文生图体验不一样? 过去我们用SDXL,要调提示词、选采样器、试CFG值、反复改尺寸、等20秒出图——像在调试一台精密仪器。而FLUX.1-dev-fp8-dit镜像一上手,你会发现:提示词更直给、风格更可控、出图更快、显存更省、效果更稳。 它不是另一个“又一个SD模型”,而是把三个关键能力拧成一股绳: * FLUX.1核心:基于DiT(Diffusion Transformer)架构的轻量高效主干,FP8低精度推理大幅降低显存占用,实测在RTX