AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

文章目录

AIOps实践:Dify接入飞书实现与智能体对话

前言

前端时间把dify的智能体接入到了Prometheus和夜莺上,实现了与智能体的基本对话,并可以调取Prometheus数据进行分析,在那之后就开始深度研究AIOps实现原理于深度赋能运维的可能性,所以正在研究AIOps的核心:MCP Server;现在还并未成型,在研究的过程中,就想到了可否基于dify的agent,连接自建的mcp服务器,对接到飞书的机器人上,这样就可以和智能体进行对话,配合成型的mcp,就可以基本实现AIOps。

这里需要借助一个三方的开源工具LangBot,LangBot是一个生产级多平台 LLM 机器人开发平台。那么就开始实践吧:

在这里插入图片描述

MCP Server开发的当前阶段:

在这里插入图片描述

后续会开源至github。

环境搭建

1、Docker环境搭建

安装Docker和docker compose

# 安装必要的工具包sudoapt-get update sudoapt-getinstall ca-certificates curl gnupg lsb-release # 创建密钥环目录并添加Docker的官方GPG密钥(用于验证软件包)sudoinstall -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg |sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudochmod a+r /etc/apt/keyrings/docker.gpg # 将Docker仓库添加到APT源echo"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"|sudotee /etc/apt/sources.list.d/docker.list > /dev/null sudoapt-get update # 安装Dockersudoapt-getinstall docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin # 配置国内镜像源,当然也可以不配置,可以配一个Docker代理,让Docker坐上VPN,在此不再展示vim /etc/docker/daemon.json {"registry-mirrors":["https://docker.1ms.run", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.m.daocloud.io", "https://do.nark.eu.org", "https://dockerpull.com", "https://dockerproxy.cn", "https://docker.awsl9527.cn"], "exec-opts":["native.cgroupdriver=systemd"]} systemctl daemon-reload systemctl start docker# 验证配置docker info 

2、LangBot搭建

# 拉取代码 (该代码在gitcode,如果拉取不下来请在web端登陆下载zip)git clone https://gitcode.com/RockChinQ/LangBot 

启动服务

unzip LangBot-master.zip cd LangBot-master/docker # 启动容器docker compose up -d 

访问 http://ip:5300,首次登录需要初始化。

在这里插入图片描述

注册,登陆即可。

3、编辑流水线

在这里插入图片描述
在这里插入图片描述

点击AI能力,填写相关配置,在dify上查询智能体的URL与密钥,获取参数:

在这里插入图片描述

填写参数:

在这里插入图片描述

保存完成。

4、配置飞书机器人

由于本人使用的是个人账户,所以才可以这样胡作非为哈哈哈哈哈,有企业认证的大佬们就要谨慎了,这个需要管理员审核的。

打开飞书开放平台(https://open.feishu.cn/),点击企业自建应用,点击添加机器人能力:

在这里插入图片描述

配置相关权限:

左侧点击权限管理,右侧点击开通权限,搜索im:message,全部选择:

在这里插入图片描述

再次搜索:cardkit:card:write,开启该权限:

在这里插入图片描述

配置事件回调:

在这里插入图片描述

点击下放的添加事件,配置相关事件:

在这里插入图片描述

当一切都配置完成后发布机器人:

在这里插入图片描述

保存发布即可。

此时,去复制关键信息,LangBot接入飞书的关键凭证:

在这里插入图片描述

复制这两项信息。

到此,飞书配置完成。

5、创建机器人

在这里插入图片描述

配置相关信息:

在这里插入图片描述
在这里插入图片描述

保存即可。

6、进行测试

点击飞书的工作台,选择我们自己创建的机器人:

在这里插入图片描述

进行对话:

在这里插入图片描述

当dify接入了mcp后:

在这里插入图片描述

哈哈哈哈哈,后续会开源这个mcp-server服务器的,敬请期待啦。

附:遇到的问题

如若遇到相关问题,可以查看日志,在LangBot项目的Docker目录下存在log文件夹,查看日志解决问题:

在这里插入图片描述

解决:

访问:

https://open.feishu.cn/app/cli_a9d5778e15389cef/auth?q=cardkit:card:write&op_from=openapi&token_type=tenant 

开通该权限即可。

Read more

手把手教你使用 Faster-Whisper 实时语音输入转文本,本地部署教程

手把手教你使用 Faster-Whisper 实时语音输入转文本,本地部署教程

文章目录 * 前言 * 一、安装环境 * 二、使用步骤 * 1.下载模型 * 2.实时录音转文本脚本 * 3.报错解决方法 * 总结 前言 要想实现像豆包、微信等一样的语音输入功能,通常有两种主流方案:云端 API(轻量、准确度极高)和 本地模型(免费、隐私、无需联网)。由于目前开发的系统需要添加一个语音识别功能,刚好记录一下使用 Faster-Whisper 实时语音输入转文本。Faster-Whisper官网地址链接: Faster-Whisper官网地址 复现成功如下图所示,请看下文教程就能部署本地实时语音输入转文本模型: 电脑有显卡的话可以参考下面这篇文章安装 cuda 和 cudnn cuda和cudnn的安装教程: cuda和cudnn的安装教程(全网最详细保姆级教程) 一、安装环境 在你的虚拟环境安装 faster-whisper,命令如下: pip install faster-whisper 安装录音库

AI绘画新体验:圣光艺苑一键生成鎏金画框艺术品(含提示词秘籍)

AI绘画新体验:圣光艺苑一键生成鎏金画框艺术品(含提示词秘籍) 1. 为什么说“圣光艺苑”不是又一个AI绘图工具? 你试过在深夜调了27次参数,只为让AI画出一张不歪脖子、不三只手、背景不糊成浆糊的肖像吗? 你是否也曾在一堆冷冰冰的滑块、下拉菜单和英文报错中,忘了自己最初想画的是什么——不是技术,而是一幅能挂在墙上的画。 圣光艺苑不一样。 它不叫“WebUI”,不标“v2.3.5-beta”,没有“CFG Scale”“Denoising Strength”这类让人皱眉的术语。它的界面是亚麻布纹理的,主色调是梵高《星空》里的深蓝与《向日葵》中的金黄;你输入的不是“prompt”,而是“绘意”;你排除的不是“negative prompt”,而是“避讳”;你启动的不是“Generate”,而是“🏺 挥毫泼墨”。 这不是把SDXL塞进一个漂亮外壳——它是把4090显卡的算力,

AI时代下的低代码复兴:开发民主化的新机遇

AI时代下的低代码复兴:开发民主化的新机遇

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI时代下的低代码复兴:开发民主化的新机遇 🚀 * 引言:打破编程的“围城” * 第一部分:回望过去——低代码的兴衰与转型 * 1.1 传统低代码的痛点 * 1.2 枯木逢春:AI带来的“认知革命” * 第二部分:架构解析——AI是如何驱动低代码的? * 第三部分:实战演练——代码改变低代码 * 3.1 场景:构建一个“客户反馈管理系统” * 3.2 进阶:AI自动修复与优化 * 第四部分:机遇与挑战——谁乘风破浪? * 4.1 谁是受益者? * 4.

虚幻版Pico大空间VR入门教程 04 —— PicoOpenXR和PicoXR插件对于PDC串流、SteamVR串流、OpenXR串流对比 和 手势追踪对比

虚幻版Pico大空间VR入门教程 04 —— PicoOpenXR和PicoXR插件对于PDC串流、SteamVR串流、OpenXR串流对比 和 手势追踪对比

省流 串流方式最重要,笔者使用【Pico4UE 企业版】一体机,使用【PicoOpenXR插件+OpenXR插件】【企业串流v2.0的apk+exe应用】和【OpenXR串流方式】进行有线串流, 串流调试时可以正常手势追踪,打包apk和exe的VR手势追踪正常。 文章包含整理的百度云资源、SteamVR串流、不同UE版本的手势追踪对比记录,曾经的踩坑笔记(略长)。 插件文档 PicoXR和PicoOpenXR 插件文档 https://developer-cn.picoxr.com/document/ PicoXR 开发文档 https://developer-cn.picoxr.com/document/unreal/ PicoOpenXR 开发文档 https://developer-cn.picoxr.com/document/unreal-openxr/ 插件下载 PicoXR和PicoOpenXR Pico SDK