基于腾讯云云服务器搭建一个Clawdbot,实现Telegram机器人自动回复

基于腾讯云云服务器搭建一个Clawdbot,实现Telegram机器人自动回复

哈咯大家好,这里依然是码农的搬运工!!

从25年开始,全球都开始走向AI,拥抱AI。

最近博主,也就是我,发现一个国外作者,【Peter Steinberger】在本月推出了一个新的智能体【Clawdbot】,首先我们可以先去官网看一下这个东西是什么:Clawdbot 

那么我也是研究了一把,但是这个文档实在是差点把我这个大专生劝退,纯英文,废了九牛二虎之力,我才差不多看懂了。肯定有小伙伴比较好奇,那么文档给你们放出来你们也可以看看:https://docs.molt.bot/start/getting-started

OK!话不多说,那我们开始实操一下:

首先呢,看了一下这个文档,安装环境还是不错的,macOS/Linux、Windows【Powershell/CMD】

而且作者还贴心的给了安装命令,这样就省了好大一部分精力。不需要费劲去git拉取代码编译了。【这里需要注意一点,macos系统得14+,作者只有13的系统,所以是没有办法弄mac的】

当然,如果有小伙伴就是头铁,还是想从git上拉代码,那我也给你贴一下这个文档,你来安装:

https://docs.molt.bot/install#install-method%3A-npm-vs-git-in​​​​​​staller

OK,那我这里就开始演示了哈,这里我采用的是最简单的安装方法,直接命令行在linux上安装。

一、创建服务器

我这里就测试而言,我就付款一台按量计费的CVM来进行测试可以参考下这个配置:

当然这里的配置可以随意调整,可以低一些,可以高一些,这个根据个人来看哈

二、登录服务器

那么这里我们就直接连接

三、安装Clawdbot

安装我们的Clawdbot,命令:curl -fsSL https://molt.bot/install.sh | bash   之后安静的等待就行

到这里会卡一会,耐心等待就可以

四、安装完成

到这一步我们就安装完成啦

五、修改/添加配置

第一个选择Yes,第二个选择快速启动

这个就是目前支持的模型,我们发现里面混进去一个国产的Qwen,其实也是可以配置的啦,因为我的Google模型没有订阅了,所以这里我就用白给的Qwen吧,这里Qwen是通过链接授权访问

稍稍微等一会就可以复制这里的地址在浏览器中进行授权:

这里有点不一样哈,我感觉这里是授权的国际版本的Qwen,因为没有魔法我都进不来这个页面

那么授权完成就是这样的

回到我们的服务器里面你就会发现,授权成功了,这里已经开始让你选择模型了:

我们就保持默认回车进行下一步

这里就是重点了,这也就是Clawdbot的重点之处,他是可以完整的对接一些海外的app的,那这里我就用Telegram的bot来测试一下吧

首先我们要去Telegram中创建一个机器人【@BotFather】按照我这个图中的内容就可以创建啦

可以看到这里有一个HTTP API,这里的内容就是我们需要的,复制下来,回到我们的服务器中

直接回车,你就会发现让你在这里填入bot Token,就是我们刚刚复制的,复制之后回车

这里就开始配置他的技能了,Homebrew这里可以选择不配置,如下:

然后我们下一步,配置一个npm,这里也可以根据个人喜好配置

下面这个就是完整的技能项,可以根据大家的需求来进行配置,这里就不多说了

因为我这里是个人研究,所以好多的本地还有openai模型我都没有配置

如果小伙伴们有需要Hook的,也可以配置一下下面这个,我这里就选择了跳过

到这里的一步,就是说我的Clawdbot开始自己配置网关了,我们等待即可

配置完成之后,会问你如何孵化这个机器人:

我这里不需要本地执行,所以我不需要孵化,这个时候其实可以运行了,只是还没有和我的Telegram打通,打通的话还需要做一步动作

那么这一步,我就选择Do this later,以后再说!!!

到这里,我们就彻底部署完了,我上面说还没有和我的Telegram打通,那么我现在做一个动作就ok:

点击这个蓝色的字,就可以打开我们刚刚创建的机器人

这里机器人说了机器人的所有者必须通过以下命令才可以授权,那这里我们就回到Clawdbot授权一下,命令是【clawdbot pairing approve telegram <code>】这里code替换成Pairing Code,然后我们回车命令,会发现出问题了

什么情况,提示我找不到Clawdbot,Why,What。

不用着急,还记得我们之前Clawdbot配置了网关了吗,这里需要重启一下,我这里比较暴力,直接重启机器。

那我们等待一两分钟,重启成功之后,我们再次输入上次的命令,授权我们的机器人:

命令是【clawdbot pairing approve telegram <code>】

这样就代表链接成功啦,我们去试试

成功啦,这样我们的Clawdbot就可以正常运行了。

六、邪修的办法

腾讯云在27号中午的时候发布了LH+Clawdbot的架构,完整的copy了一个镜像出来,购买轻量要用服务器就可以直接使用这个镜像,还有配套的官方文档:

官方文档地址:玩转Lighthouse|Clawdbot一键秒级部署指南

所以,也可以直接参考这个文档购买轻量服务器进行使用。

为什么做这样的宣传呢,因为我是一家代理商的员工,哈哈,欢迎大家来找我联系,不管是IAAS、SAAS、PAAS,我都可以给大家一些小小的福利!!!

大家有什么问题也可以留言在评论区,看到我一定会及时回复哒!

Read more

Nanbeige4.1-3B实操手册:webui.py源码关键修改点——支持历史会话持久化

Nanbeige4.1-3B实操手册:webui.py源码关键修改点——支持历史会话持久化 1. 引言:为什么需要历史会话持久化? 想象一下这个场景:你正在和Nanbeige4.1-3B模型进行一场深入的对话,讨论一个复杂的技术问题。聊了十几轮,模型给出了很多有价值的见解,你正准备把这些内容整理成文档。突然,浏览器崩溃了,或者你需要重启WebUI服务。当你重新打开页面时,发现刚才所有的对话记录都消失了——那种感觉,是不是特别让人抓狂? 这就是我们今天要解决的问题。 Nanbeige4.1-3B自带的WebUI界面功能很强大,但它有一个明显的短板:不支持历史会话的持久化保存。每次刷新页面或重启服务,所有的对话记录都会丢失。对于需要长期跟踪对话、积累知识库、或者进行多轮调试的用户来说,这无疑是一个巨大的痛点。 好消息是,这个问题完全可以通过修改webui.py源码来解决。在本文中,我将带你一步步分析源码,找到关键修改点,实现历史会话的自动保存和加载功能。无论你是Python新手还是有经验的开发者,都能跟着这个教程,让你的Nanbeige4.1-3B WebUI变得更加强大和实用

Hunyuan-MT-7B-WEBUI是否依赖HuggingFace镜像网站?否,已内置

Hunyuan-MT-7B-WEBUI:无需HuggingFace,真正离线可用的翻译大模型方案 在多语言内容爆炸式增长的今天,机器翻译早已不再是科研实验室里的概念玩具,而是支撑全球化业务、跨文化沟通和数字政府建设的关键基础设施。从跨境电商的商品描述自动本地化,到民族地区政策文件的快速双语发布,高质量、低门槛的翻译能力正成为各行各业的刚需。 然而现实是,尽管像M2M-100、NLLB这样的开源翻译模型层出不穷,真正能“拿起来就用”的却凤毛麟角。大多数项目仍停留在from_pretrained("xxx")这一行代码上——前提是你的网络能连上HuggingFace,且不被限速、不限流、不403。更别提企业内网、涉密系统这些完全断网的场景了。 正是在这种“模型很强,但用不起来”的行业困局下,腾讯混元团队推出的 Hunyuan-MT-7B-WEBUI 显得尤为特别:它不仅集成了一个70亿参数的专业翻译大模型,还把整个推理环境、Web界面、依赖库全部打包成一个可直接运行的镜像包,最关键的是——全程无需访问HuggingFace或任何外部模型仓库。 这听起来像是个理想化的设想,但它已经落

新手福音:用快马平台生成windows18-hd19风格页面学前端

作为一名刚接触前端开发的新手,最近我在学习如何实现windows18-hd19风格的页面设计。这种高清界面风格特别适合用来练习现代CSS技巧,特别是毛玻璃效果、动画过渡和交互细节的处理。下面我就分享一下通过InsCode(快马)平台快速实现这个登录页面的过程。 1. 整体布局设计思路 首先需要明确页面的基本结构。windows18-hd19风格的特点是简洁现代,所以采用全屏渐变背景,中间放置一个居中的登录框。登录框使用毛玻璃效果让背景适当模糊,同时添加细微的发光边框提升质感。 2. 背景与毛玻璃效果实现 背景使用CSS的线性渐变实现,从深蓝色过渡到紫色。登录框的毛玻璃效果通过backdrop-filter属性实现,这个属性可以让我们对元素背后的内容应用模糊等滤镜效果。为了兼容性,还需要添加-webkit前缀。 3. 输入框交互细节 输入框获得焦点时的动画效果通过CSS的transition实现。当用户点击输入框时,边框颜色会平滑过渡到高亮状态,同时添加轻微的放大效果提升视觉反馈。这些细节虽然小,但对用户体验很重要。 4. 按钮交互设计 提交按钮的悬停和点击效果分别使用:hov

5分钟部署GLM-4.6V-Flash-WEB,视觉大模型网页推理一键启动

5分钟部署GLM-4.6V-Flash-WEB,视觉大模型网页推理一键启动 你有没有过这样的经历:刚在技术群里看到一个惊艳的多模态模型,兴冲冲打开终端准备试一试,结果卡在git clone三小时不动、pip install报错十次、CUDA版本对不上、模型权重下载到99%断连……最后关掉终端,默默点开短视频。 这次不一样。 GLM-4.6V-Flash-WEB 不是又一个“理论上很厉害但跑不起来”的开源项目。它是一套真正为“今天就要用”而设计的视觉大模型推理方案——单卡可跑、网页直连、API即调、5分钟从零到可用。 不需要懂ViT结构,不用配环境变量,不查PyTorch兼容表。你只需要一台带NVIDIA显卡的机器(RTX 3090起步,3060也能凑合),执行三步操作,就能在浏览器里上传图片、输入问题、实时获得图文理解结果。 这不是演示,是开箱即用的生产力工具。 1. 为什么说“5分钟部署”不是夸张? 1.1 它真的不依赖GitHub网络 传统方式部署多模态模型,本质是在和网络基建搏斗: