(保姆级教程)通过官方API搭建一个自己的QQ群聊机器人

(保姆级教程)通过官方API搭建一个自己的QQ群聊机器人

简介

用官方api做了一个qq群聊机器人的demo,有获取天气、简单编辑待办、从本地发送图片等功能。

建了个群,欢迎来交流(

QQ群号:710101225

重新写了个基于nonebot框架的教程,个人认为比官方sdk更容易开发:https://blog.ZEEKLOG.net/Clovertaa/article/details/145452834

获取

机器人demo

GitHub仓库:GitHub - ClovertaTheTrilobita/SanYeCao-bot: 一个基于官方API的QQ群聊机器人

官方SDK

GitHub仓库:GitHub - tencent-connect/botpy: QQ频道机器人PythonSDK

教程

前置需求

本项目使用conda环境和git操作。如果未安装这两个工具请首先移步

史上最全最详细的Anaconda安装教程-ZEEKLOG博客

Git 详细安装教程(详解 Git 安装过程的每一个步骤)_git安装-ZEEKLOG博客

(这俩教程我粗略看了下感觉挺好的,如果不适合你那烦请自行百度了qwq)

一、配置QQ开放平台

网址:QQ 开放平台

1.机器人设置

完成注册之后,登陆,进入主页,点击创建机器人

简单填写好资料之后,进入机器人控制面板,找到“沙箱配置”。

点击进入,选择你想在哪个群里测试你的qq机器人。

注意,你必须是该群的群主或者管理员。

在你选择的群聊中,打开群聊设置>群机器人,选择其它,可以看到你创建的机器人。将它邀请进群。

下一步,在导航栏中找到“发布设置”。

点击功能配置。

之后点击右上角的重新配置,设置机器人被at后输入栏上方会弹出的指令。需要根据代码来配置。

以下是我配置的。

最后,在导航栏中找到“开发设置”。

查看你的机器人的AppleID和AppleSecret。由于AppleSecret不会明文保存在网页上,刚创建的机器人需要点击“生成”,并将生成的密钥记录下来,我们在之后的步骤中要用。

注意:生成密钥后退出页面将无法再次查看密钥,所以请妥善记录并保管好。

二、拉取项目

进入GitHub,点击绿色的<>code

之后复制项目仓库链接

之后在自己的文件夹空白处右键,选择open git bash  here

输入

git clone https://github.com/ClovertaTheTrilobita/SanYeCao-bot.git

将项目拉取至本地。

三、启动机器人

很好!现在我们拿到了机器人的源代码,只需要启动它就行了。

请详细阅读项目的README.md根据指引配置API和其它一些东西。

1.配置机器人账号密码

找到./botpy/examples/config.yaml

appid: "Your_Bot_Id" secret: "Enter_Your_Secret_Here"

还记得第一步中我们保存的机器人ID和密钥么?

将你在QQ开放平台上的AppleID和AppleSecret分别填入Your_Id和Enter_Your_Secret_Here的位置。

2.配置图床API

首先打开图床:Image Upload - SM.MS - Simple Free Image Hosting

注册/登陆之后,在右上角找到User

单击,点击DashBoard

在左侧导航栏中找到API Token,如果是第一次使用需要点击Gennerate Secret Token生成令牌。

复制你的令牌,进入项目。

在./botpy/examples/plugins/img_upload.py中,找到

headers = {'Authorization': 'Your_Token'} # 此处填写你的API Token

将上述代码中的Your_Token改为你刚刚复制的令牌。

这样我们就完成了机器人API的配置。

3.配置conda环境(推荐)

接下来,我们回到项目根目录,打开终端,输入

conda create -n chatbot

创建一个名为chatbot的环境,如果你想起别的名字就请把chatbot换为你喜欢的名字。

之后在终端输入

conda activate chatbot

 启动我们刚刚创建的环境。

刚刚创建的conda环境貌似是没有pip安装器的,所以我们要

conda install pip 

安装pip

最后一步,在项目根目录输入

pip install -r requirements.txt

安装所需要的软件包。

requirements.txt内的包可能看起来很多,实际上大部分都是conda环境自带的,我直接把所有的贴上去了,因为懒()

4.启动机器人

非常棒!现在我们已经完成了所有所需要的配置!

我们只需要进入./botpy/examples目录,找到client.py。在终端中输入

python client.py

启动机器人。

现在你就可以在群聊中at它啦。

 

Read more

AI原生应用开发:Llama模型的10个高级用法

AI原生应用开发:Llama模型的10个高级用法 关键词:AI原生应用开发、Llama模型、高级用法、自然语言处理、大语言模型 摘要:本文将深入探讨Llama模型在AI原生应用开发中的10个高级用法。我们会先介绍Llama模型的背景知识,接着用通俗易懂的语言解释相关核心概念,再详细阐述每个高级用法的原理、实现步骤,并给出具体的代码示例。最后,还会探讨其实际应用场景、未来发展趋势与挑战等内容,帮助开发者更好地利用Llama模型进行创新应用开发。 背景介绍 目的和范围 目的是帮助开发者了解Llama模型在AI原生应用开发中的各种高级玩法,拓宽其在不同领域的应用思路。范围涵盖了从自然语言处理到智能交互等多个方面的高级用法。 预期读者 主要面向对AI开发有一定基础,想要深入了解Llama模型应用的开发者、技术爱好者,以及对AI原生应用开发感兴趣的相关人员。 文档结构概述 本文先介绍相关术语,引入核心概念,接着详细阐述Llama模型的10个高级用法,包括原理、代码实现和实际应用场景等,最后探讨未来趋势、总结内容并提出思考题。 术语表 核心术语定义 * Llama模型:

Llama-Factory是否支持LoRA权重合并?合并后部署指南

Llama-Factory是否支持LoRA权重合并?合并后部署指南 在大模型应用日益普及的今天,如何以低成本、高效率完成模型定制,并顺利将其投入生产环境,是每个开发者面临的现实挑战。全参数微调虽效果显著,但动辄数百GB显存和漫长的训练周期让多数团队望而却步。于是,LoRA(Low-Rank Adaptation) 这类参数高效微调方法迅速走红——它仅需训练原始模型0.1%~1%的参数量,就能逼近全量微调的表现。 然而,一个新的问题随之而来:LoRA 模型本身不能独立运行,推理时必须与基础模型联动加载。这种“双模依赖”不仅增加了部署复杂度,还可能引入额外延迟和版本错配风险。有没有一种方式,能在训练完成后将 LoRA 的增量更新“固化”进基础模型中,生成一个可直接调用的标准模型?答案是肯定的。 Llama-Factory 正是这样一个集成了完整“训练—合并—部署”流水线的开源框架。它不仅支持 LoRA 和 QLoRA 微调,更提供了 一键式权重合并功能,让轻量级训练成果无缝转化为工业级可部署模型。

Llama-3.2-3B智能助手:Ollama部署实现个人知识管理+任务提醒

Llama-3.2-3B智能助手:Ollama部署实现个人知识管理+任务提醒 你有没有过这样的经历: 刚读完一篇好文章,想记下来却懒得整理; 会议里冒出三个待办事项,转头就忘掉两个; 收藏夹里躺着五十个“以后再看”,结果一年没点开过一次? 别急着自责——这不是你记性差,而是工具没跟上节奏。今天要聊的这个组合,可能就是你缺的那一块拼图:用 Ollama 一键拉起 Llama-3.2-3B,不装显卡、不配服务器、不写一行训练代码,就能在本地跑起一个真正懂你、记得住、提醒得准的轻量级智能助手。 它不是动辄几十GB的大模型玩具,也不是需要调参半天的实验品。它小(仅1.8GB模型体积)、快(M系列Mac上响应不到2秒)、稳(纯CPU运行无报错),最关键的是——它能真正嵌进你的日常流程里:自动归类笔记、提炼会议纪要、按优先级生成待办清单,甚至在你忘记时主动弹出提醒。 下面我们就从零开始,把这套系统搭起来,再手把手教会它怎么帮你管知识、盯任务。 1. 为什么是Llama-3.2-3B?

LLaMA-Factory微调实战:从环境搭建到模型部署

LLaMA-Factory微调实战:从环境搭建到模型部署 在大语言模型(LLM)快速渗透各行各业的今天,一个现实问题摆在开发者面前:通用模型虽然强大,但在垂直场景中往往“说不到点子上”。比如客服系统需要精准响应商品政策,医疗助手必须避免模糊表达——这些都要求模型具备领域专精能力。而实现这一目标的关键,正是微调。 但传统微调流程复杂得令人望而却步:数据清洗、显存优化、分布式训练、评估验证……每一环都需要深厚的技术积累。对于个人开发者或资源有限的小团队来说,这几乎是一道难以逾越的门槛。 好在开源社区给出了优雅解法——LLaMA-Factory。它不仅支持包括 Qwen、Baichuan、ChatGLM、Mistral 在内的上百种主流架构,还集成了 LoRA、QLoRA 等高效参数微调技术,并通过统一接口打通了从训练到部署的全链路。更关键的是,它提供了基于 Gradio 的可视化界面,让非专业用户也能完成模型定制。 本文将以 Qwen-7B-Chat 模型 为例,在单张 RTX 3090(24GB 显存)环境下,