比 OpenClaw 轻 99%!我用 nanobot 搭了个 QQ AI 机器人,还顺手贡献了代码



4000 行代码,打造你的私人 AI 助手❞

前言

最近 AI Agent 领域有个项目特别火——「OpenClaw」,它是一个功能强大的 AI 助手框架,能让你拥有一个 7×24 小时在线的智能助理。

但当我 clone 下来准备研究时,发现它有 「43 万行代码」!对于想快速上手或做二次开发的个人开发者来说,这个体量实在太重了。

直到我发现了它的"轻量版"——「nanobot」

nanobot:99% 的瘦身,核心功能全保留

nanobot 来自香港大学数据科学实验室(HKUDS),它的设计理念很简单:



用最少的代码,实现 AI Agent 的核心能力❞

来看一组对比数据:

项目

代码行数

核心功能

OpenClaw

430,000+

全功能

nanobot

~4,000

核心功能

「瘦身比例:99%!」

但别被这个数字吓到,nanobot 保留了最实用的功能:

  • ✅ 多轮对话与上下文记忆
  • ✅ 网页搜索与信息获取
  • ✅ 代码编写与执行
  • ✅ 定时任务调度
  • ✅ 多平台接入(QQ、微信、Telegram、Discord 等)

对于 90% 的个人使用场景,这些功能完全够用。

实战:5 分钟搭建 QQ AI 助手

下面我带你从零开始,搭建一个属于自己的 QQ AI 机器人。

第一步:环境准备

nanobot 需要 Python 3.11+,如果你的系统版本较低,需要先升级:

# CentOS/RHEL dnf install python3.11 python3.11-pip # Ubuntu/Debian apt install python3.11 python3.11-pip

第二步:安装 nanobot

git clone https://github.com/HKUDS/nanobot.git cd nanobot pip3.11 install -e .

第三步:初始化配置

python3.11 -m nanobot onboard

这会在 ~/.nanobot/ 目录下生成配置文件。

第四步:配置 LLM 后端

编辑 ~/.nanobot/config.json,我推荐使用 「Gemini」(免费额度够用):

{   "agents": {     "defaults": {       "model": "gemini/gemini-2.5-flash"     }   },   "providers": {     "gemini": {       "apiKey": "你的 Gemini API Key"     }   } }


💡 获取 Gemini API Key:https://aistudio.google.com/apikey❞

第五步:配置 QQ 机器人

  1. 前往 QQ 开放平台 注册开发者账号
  2. 创建一个机器人应用,获取 AppID 和 Secret
  3. 在配置文件中启用 QQ 频道:
{   "channels": {     "qq": {       "enabled": true,       "appId": "你的 AppID",       "secret": "你的 Secret"     }   } }

第六步:启动!

python3.11 -m nanobot gateway

看到 机器人「xxx」启动成功! 就表示一切就绪,去 QQ 上找你的机器人聊天吧!

踩坑记录:搜索功能的 API Key 困扰

当我兴冲冲地让机器人帮我搜索新闻时,它回复:



"无法获取网页搜索结果,因为缺少 BRAVE_API_KEY"❞

什么?搜索还要单独的 API Key?

研究了一下发现,nanobot 默认使用 「Brave Search API」 作为搜索后端,这需要注册并获取 API Key。虽然有免费额度,但注册流程有点繁琐。

我就想:能不能支持其他搜索引擎?比如完全免费的 DuckDuckGo?

我的开源贡献:多搜索引擎支持

说干就干!我 fork 了 nanobot 仓库,花了一个下午重构了搜索模块,实现了三种搜索引擎的支持:

架构设计

采用「策略模式」,让搜索后端可插拔:

SearchBackend (抽象基类)     ├── TavilyBackend   (AI 优化搜索,推荐)     ├── BraveBackend    (原版默认)     └── DuckDuckGoBackend (免费,无需 API Key)

核心代码

class SearchBackend(ABC):     @abstractmethod     async def search(self, query: str, max_results: int) -> list[dict]:         pass class DuckDuckGoBackend(SearchBackend):     """免费搜索,无需 API Key"""     async def search(self, query: str, max_results: int) -> list[dict]:         # 解析 DuckDuckGo HTML 页面获取结果         url = f"https://html.duckduckgo.com/html/?q={quote(query)}"         # ... 实现细节

使用方式

现在只需在配置文件中指定引擎即可:

{   "tools": {     "web": {       "search": {         "engine": "tavily",  // 或 "brave" 或 "duckduckgo"         "apiKey": "你的 API Key"       }     }   } }

「三种引擎对比:」

引擎

需要 API Key

搜索质量

推荐场景

Tavily

✅ (免费 1000次/月)

⭐⭐⭐⭐⭐

AI 应用首选

Brave

⭐⭐⭐⭐

隐私优先

DuckDuckGo

⭐⭐⭐

零成本体验

我已经将这个特性提交了 PR,希望能帮助到更多开发者:



PR 地址:https://github.com/HKUDS/nanobot/pull/507❞

效果展示

配置好 Tavily 后,搜索功能完美运行!来看看实际对话效果:

nanobot QQ 机器人对话截图

从截图可以看到:搜索结果的质量相当不错,信息及时且全面,这就是 Tavily 作为 AI 优化搜索引擎的优势。

总结

nanobot 是一个非常适合个人开发者的 AI Agent 框架:

「优点:」

  • 代码量小,易于理解和修改
  • 安装部署简单,5 分钟上手
  • 支持多平台(QQ、微信、Telegram 等)
  • 社区活跃,更新频繁

「适合场景:」

  • 个人 AI 助手
  • 学习 AI Agent 原理
  • 快速原型验证
  • 二次开发定制

「不适合场景:」

  • 企业级生产环境
  • 需要复杂工作流的场景

如果你也想拥有一个 24 小时在线的 AI 助手,不妨试试 nanobot!


「相关链接:」

  • nanobot 官方仓库:https://github.com/HKUDS/nanobot
  • OpenClaw 官方仓库:https://github.com/openclaw/openclaw
  • Gemini API:https://aistudio.google.com/apikey
  • Tavily API:https://tavily.com/
  • QQ 开放平台:https://q.qq.com/



🔥 如果这篇文章对你有帮助,欢迎点赞、在看、转发三连!

有问题欢迎在评论区留言,我会一一解答~❞

Read more

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone

By Ne0inhk

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测 最近,阿里开源了新一代的千问大模型系列——Qwen3。这个系列阵容强大,从0.6B到235B,各种尺寸都有。今天,咱们不聊那些动辄几百亿参数的大块头,就聚焦一个特别有意思的小家伙:Qwen3-1.7B。 为什么是它?因为1.7B这个参数量,刚好卡在一个很微妙的位置:它比那些动辄几十亿参数的“大模型”轻巧得多,理论上部署和推理成本都更低;但又比一些纯玩具级别的微型模型要“聪明”不少。更重要的是,它主打的就是代码生成能力。 这让我立刻想到了一个“参照物”——GitHub Copilot。作为目前最流行的AI编程助手,Copilot几乎成了代码生成的代名词。那么,这个新来的、开源的、只有1.7B参数的Qwen3,在代码生成这件事上,到底有几斤几两?它能达到Copilot几成的功力?还是说,它有自己的独特优势? 这篇文章,我就带你一起上手实测,用最直观的方式,看看Qwen3-1.7B在代码生成上的真实表现,

By Ne0inhk

PyCharm+GitHub Copilot零成本配置手册:学生认证/2FA/汉化疑难一次解决

PyCharm + GitHub Copilot 零成本配置手册:从学生认证到流畅编码的全链路实战 作为一名学生开发者,你是否曾羡慕那些能流畅使用AI编程助手的同行,却苦于复杂的认证流程、网络环境的掣肘,或是面对英文界面时的些许不适?将前沿的AI工具无缝融入日常开发工作流,本应是一个提升效率的愉悦过程,而非充满障碍的挑战。今天,我们就来彻底解决这些问题,打造一套专为学生群体设计、开箱即用的PyCharm与GitHub Copilot生产力解决方案。这套方案不仅会手把手带你完成从学生身份验证到IDE集成的每一步,更会聚焦于国内用户常见的“水土不服”问题,提供稳定的替代方案和优化技巧,让你真正零成本、零门槛地拥抱AI辅助编程。 1. 基石构建:GitHub学生认证与账户安全加固 在享受任何福利之前,一个经过验证且安全的GitHub账户是首要前提。学生认证是获取GitHub Copilot Pro免费使用权的钥匙,而双重身份验证(2FA)则是守护这把钥匙的保险箱。 1.1 高效通过GitHub学生认证 学生认证的核心在于向GitHub证明你当前的在读身份。整个过程需要细心,但绝非

By Ne0inhk

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比 本文是《大模型推理框架深度解析》系列的第一篇,适合刚接触LLM部署的开发者阅读。 写在前面 随着大语言模型(LLM)的广泛应用,如何将模型高效地部署到生产环境成为每个AI工程师必须面对的问题。目前市面上主流的推理框架有Ollama、llama.cpp和vLLM,但它们的技术定位、适用场景差异巨大。 很多开发者在选型时容易陷入误区: * 用Ollama部署高并发API服务,结果吞吐量上不去 * 用vLLM跑边缘设备,发现资源占用过高 * 混淆llama.cpp和vLLM的定位,不知道何时该用哪个 本文将从架构分层视角出发,帮你建立清晰的选型认知。 一、三大框架的技术定位 1.1 三层架构视角 如果把LLM推理技术栈比作一座大厦,三个框架分别位于不同的楼层: ┌─────────────────────────────────────────────────────────────┐ │ 应用层(第3层) │ │ ┌─────────────┐ │ │ │ Ollama │

By Ne0inhk