【AI实战教程】Nanobot实战教程:基于vLLM部署的智能QQ聊天机器人

【AI实战教程】Nanobot实战教程:基于vLLM部署的智能QQ聊天机器人
   🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流

📝个人主页-Sonhhxg_柒的博客_ZEEKLOG博客 📃

🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​

📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】

 🖍foreword

✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。

如果你对这个系列感兴趣的话,可以关注订阅哟👋

一、前言

在大模型时代,拥有一个个人专属的AI助手已经不再是遥不可及的梦想。今天,我将为大家带来一份详尽的实战教程,教你如何使用Nanobot构建一个基于vLLM部署的智能QQ聊天机器人。

Nanobot是由香港大学数据科学研究所开发的一款超轻量级AI智能体,灵感来自OpenClaw。它的设计理念是"让AI触手可及",通过极简的代码实现强大的功能。Nanobot的关键特性包括:

  • 🪶 超轻量级:仅约4,000行核心代理代码,比Clawdbot小99%,实时代码行数仅为3,510行
  • 🔬 研究就绪:代码干净易读,易于理解、修改和扩展以用于研究
  • ⚡️ 闪电般快速:最小的占用空间意味着更快的启动、更低的资源使用和更快的迭代
  • 💎 易于使用:一键部署即可使用
  • 🐅 扩展性强:支持多种聊天平台接入,包括QQ、飞书、邮箱等
  • 🦁 高度定制:可以根据个人需求自由配置模型和功能

而vLLM则是一款专为大模型部署优化的工具,它通过实现PagedAttention等技术,大幅提升了大模型的推理速度和并发处理能力。

结合Nanobot和vLLM,我们可以构建一个响应迅速、功能强大的智能QQ聊天机器人,让AI助手真正融入我们的日常沟通。

二、环境准备

在开始部署之前,我们需要准备一个合适的运行环境。以下是推荐的配置:

2.1、 硬件要求

CPU:至少4核以上
内存:至少16GB(推荐32GB以上)
GPU:如果要使用vLLM进行本地推理,建议使用NVIDIA GPU,显存至少16GB(推荐24GB以上)
存储空间:至少100GB可用空间(用于存储模型和依赖)

2.2、 软件要求

操作系统:Linux(推荐Ubuntu 20.04+)或Windows 10/11
Python:3.11+(推荐3.12)
Git:用于克隆代码仓库
CUDA:如果使用GPU,需要安装CUDA 11.7+(推荐11.8或12.4)

三、使用星图AI部署的vLLM模型(Qwen3-4B-Instruct-2507)

3.1、登录星图AI网址搜索(Qwen3-4B-Instruct-2507)

3.2、点击立即部署,等待服务启动成功。

注意:需要工具调度需要,改变镜像内supervisor启动模型的配置文件命令及修改脚本如下:

vim /etc/supervisor/conf.d/tencent_hy.conf

修改后的配置如下

[program:llm] command=/opt/miniconda3/bin/vllm serve --served-model-name Qwen3-4B-Instruct-2507 --max-model-len 25000 --gpu_memory_utilization 0.90 --model /usr/local/bin/Qwen3-4B-Instruct-2507 --port 8000 --host 0.0.0.0 --enable-auto-tool-choice --tool-call-parser hermes environment=HOME="/root",USER="root",LOGNAME="root",SHELL="/bin/bash" user=root autostart=true autorestart=true redirect_stderr=true stdout_logfile = /root/workspace/llm.log

部署成功的vllm的模型服务的地址为jupyter链接的端口号替换为8000.

例如:

https://gpu-pod698bf28e9681f1044bf1640b-8000.web.gpu.ZEEKLOG.net/v1

3.3、验证vLLM服务

测试vllm服务启动是否成功curl命令如下:

curl --request POST \ --url https://gpu-pod698bf28e9681f1044bf1640b-8000.web.gpu.ZEEKLOG.net/v1/chat/completions \ --header 'Authorization: Bearer 6741df536d06447abb6db60f0dfa4e21' \ --header 'content-type: application/json' \ --data '{ "model": "Qwen3-4B-Instruct-2507", "messages": [ { "role": "user", "content": "你是谁" } ], "stream": false } '

成功返回如下:

四、QQ开放平台新建机器人,并获取配置

4.1、访问QQ开放平台,注册个人或企业开发者。

4.2、创建机器人。

4.3、开发管理,复制AppID和AppSecret。

五、安装Nanobot

5.1、 方式一:通过pip安装(推荐)

使用pip安装

pip install nanobot-ai

或使用uv工具安装(推荐,速度更快)

uv tool install nanobot-ai

5.2、 方式二:通过源码安装

克隆仓库

git clone https://github.com/HKUDS/nanobot.git

进入目录

cd nanobot

安装依赖

pip install -e .

5.3、 验证安装

安装完成后,我们可以通过以下命令验证Nanobot是否安装成功:

nanobot --version

如果看到版本信息,则表示安装成功。

六、启动nanobot服务

6.1、初始化nanobot。

nanobot onboard

6.2、修改配置文件

修改模型配置如下:

注意本地部署的模型:

apiBase  :  http://localhost:8000/v1

{ "providers": { "vllm": { "apiKey": "dummy", "apiBase": "https://gpu-pod698bf28e9681f1044bf1640b-8000.web.gpu.ZEEKLOG.net/v1" } }, "agents": { "defaults": { "model": "Qwen3-4B-Instruct-2507", "maxTokens":4096, } } }

修改的qq相关配置如下:

{ "channels": { "qq": { "enabled": true, "appId": "YOUR_APP_ID", "secret": "YOUR_APP_SECRET", "allowFrom": [] } } }

6.4、启动nanobot的gateway服务

nanobot gateway

6.4、向qq机器人提问

七、总结

通过本教程,我们成功构建了一个基于Nanobot和vLLM的智能QQ聊天机器人。这个机器人具有以下特点:

  1. 本地部署:所有计算都在本地完成,保护隐私
  2. 高性能:使用vLLM优化推理速度,响应迅速
  3. 功能强大:支持上下文理解、多轮对话、知识库集成等高级功能
  4. 易于扩展:可以根据需要添加新功能和工具

Nanobot作为一款轻量级的AI智能体,为我们提供了一种简单、高效的方式来部署和使用大模型。结合vLLM的高性能推理能力和QQ的广泛使用,我们可以打造一个真正实用的个人AI助手。

未来,随着大模型技术的不断发展,Nanobot也将不断进化,为我们带来更多惊喜。如果你对Nanobot感兴趣,欢迎加入社区,一起探索AI的无限可能!

附录:相关资源

Nanobot GitHub:https://github.com/HKUDS/nanobot

vLLM GitHub:https://github.com/vllm-project/vllm

Hugging Face模型库:https://huggingface.co/models

希望本教程能够帮助你成功部署自己的Nanobot智能QQ机器人。如果你在部署过程中遇到任何问题,欢迎在评论区留言,我会尽力帮助你解决。

Read more

2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新) 2026年毕业季正式来临,AIGC检测已经不再是"可能会查",而是"一定会查"。从去年下半年到现在,全国高校密集出台了一系列针对论文AI生成内容的检测政策。本文将为大家做一个尽可能全面的汇总,方便同学们快速了解自己学校的要求,提前做好准备。 本文持续更新,建议收藏。 2026年高校AIGC检测的整体趋势 在详细列出各高校政策之前,先给大家概括一下今年的整体形势: 三大核心变化 1. 检测范围全覆盖:不再只是抽检,而是全部论文必查AIGC 2. 检测标准趋严:AI率阈值从去年普遍的30%收紧到20%甚至10% 3. 处罚力度加大:从"修改后重新提交"升级到"延期答辩"甚至"取消答辩资格" 主要检测平台分布 * 知网AIGC检测系统:覆盖约60%的985/211高校

【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯结构化的定义 (Structuration: Definition) * 1. 结构化的定义 * 2. 结构化的示例 * 3. 技术领域中的结构化数据 * 💯有序的规则的重要性 (Importance of Orderly Rules) * 1. 信息的组织和转变 * 2. 字典中的例子 * 3. 规则的有序性 * 4. 生活中的例子 * 💯结构化的实际应用 (Practical Applications of Structuration) * 1. 结构化的广泛应用 * 2. 现代科技领域中的重要性 * 3. 结构化的意义 * 💯小结 💯前言 在人工智能生成内容(AIGC)的浪潮中,信息的高效组织和管理成为突破瓶颈的关键能力。结构化,作为一种通过明确规则和逻辑对信息进行处理的方法,不仅奠定了高效信息管理的基础,

大模型本地部署神器:llama.cpp使用介绍

大模型本地部署神器:llama.cpp使用介绍

介绍llama.cpp 本节主要介绍什么是llama.cpp,以及llama.cpp、llama、ollama的区别。同时说明一下GGUF这种模型文件格式。 什么是llama.cpp llama.cpp是一个由Georgi Gerganov开发的高性能C++库,主要目标是在各种硬件上(本地和云端)以最少的设置和最先进的性能实现大型语言模型推理。 主要特点: * 纯C/C++实现,没有任何依赖 * 对Apple Silicon(如M1/M2/M3芯片)提供一流支持 - 通过ARM NEON、Accelerate和Metal框架优化 * 支持x86架构的AVX、AVX2、AVX512和AMX指令集 * 支持1.5位、2位、3位、4位、5位、6位和8位整数量化,实现更快的推理和更低的内存使用 * 为NVIDIA GPU提供自定义CUDA内核(通过HIP支持AMD GPU,通过MUSA支持摩尔线程MTT GPU)

Stable Diffusion风格库终极指南:833种艺术风格一键生成

Stable Diffusion风格库终极指南:833种艺术风格一键生成 【免费下载链接】StableDiffusion-CheatSheetA list of StableDiffusion styles and some notes for offline use. Pure HTML, CSS and a bit of JS. 项目地址: https://gitcode.com/gh_mirrors/st/StableDiffusion-CheatSheet 想要快速掌握Stable Diffusion的无限创造力?这个包含833种艺术风格的Stable Diffusion Cheat Sheet就是你的终极解决方案!🎨 无论你是AI绘画新手还是资深创作者,这个纯HTML、CSS和少量JS构建的风格库都能让你轻松实现专业级艺术效果。 为什么需要Stable Diffusion风格库? 在AI绘画的世界里,找到合适的艺术风格往往是最耗时的环节。Stable Diffusion Cheat Sheet将833种不同艺术家的风格整理成易于使用的参考库,让你告别反复试错,直接