AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

文章目录

AIOps实践:Dify接入飞书实现与智能体对话

前言

前端时间把dify的智能体接入到了Prometheus和夜莺上,实现了与智能体的基本对话,并可以调取Prometheus数据进行分析,在那之后就开始深度研究AIOps实现原理于深度赋能运维的可能性,所以正在研究AIOps的核心:MCP Server;现在还并未成型,在研究的过程中,就想到了可否基于dify的agent,连接自建的mcp服务器,对接到飞书的机器人上,这样就可以和智能体进行对话,配合成型的mcp,就可以基本实现AIOps。

这里需要借助一个三方的开源工具LangBot,LangBot是一个生产级多平台 LLM 机器人开发平台。那么就开始实践吧:

在这里插入图片描述

MCP Server开发的当前阶段:

在这里插入图片描述

后续会开源至github。

环境搭建

1、Docker环境搭建

安装Docker和docker compose

# 安装必要的工具包sudoapt-get update sudoapt-getinstall ca-certificates curl gnupg lsb-release # 创建密钥环目录并添加Docker的官方GPG密钥(用于验证软件包)sudoinstall -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg |sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudochmod a+r /etc/apt/keyrings/docker.gpg # 将Docker仓库添加到APT源echo"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"|sudotee /etc/apt/sources.list.d/docker.list > /dev/null sudoapt-get update # 安装Dockersudoapt-getinstall docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin # 配置国内镜像源,当然也可以不配置,可以配一个Docker代理,让Docker坐上VPN,在此不再展示vim /etc/docker/daemon.json {"registry-mirrors":["https://docker.1ms.run", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.m.daocloud.io", "https://do.nark.eu.org", "https://dockerpull.com", "https://dockerproxy.cn", "https://docker.awsl9527.cn"], "exec-opts":["native.cgroupdriver=systemd"]} systemctl daemon-reload systemctl start docker# 验证配置docker info 

2、LangBot搭建

# 拉取代码 (该代码在gitcode,如果拉取不下来请在web端登陆下载zip)git clone https://gitcode.com/RockChinQ/LangBot 

启动服务

unzip LangBot-master.zip cd LangBot-master/docker # 启动容器docker compose up -d 

访问 http://ip:5300,首次登录需要初始化。

在这里插入图片描述

注册,登陆即可。

3、编辑流水线

在这里插入图片描述
在这里插入图片描述

点击AI能力,填写相关配置,在dify上查询智能体的URL与密钥,获取参数:

在这里插入图片描述

填写参数:

在这里插入图片描述

保存完成。

4、配置飞书机器人

由于本人使用的是个人账户,所以才可以这样胡作非为哈哈哈哈哈,有企业认证的大佬们就要谨慎了,这个需要管理员审核的。

打开飞书开放平台(https://open.feishu.cn/),点击企业自建应用,点击添加机器人能力:

在这里插入图片描述

配置相关权限:

左侧点击权限管理,右侧点击开通权限,搜索im:message,全部选择:

在这里插入图片描述

再次搜索:cardkit:card:write,开启该权限:

在这里插入图片描述

配置事件回调:

在这里插入图片描述

点击下放的添加事件,配置相关事件:

在这里插入图片描述

当一切都配置完成后发布机器人:

在这里插入图片描述

保存发布即可。

此时,去复制关键信息,LangBot接入飞书的关键凭证:

在这里插入图片描述

复制这两项信息。

到此,飞书配置完成。

5、创建机器人

在这里插入图片描述

配置相关信息:

在这里插入图片描述
在这里插入图片描述

保存即可。

6、进行测试

点击飞书的工作台,选择我们自己创建的机器人:

在这里插入图片描述

进行对话:

在这里插入图片描述

当dify接入了mcp后:

在这里插入图片描述

哈哈哈哈哈,后续会开源这个mcp-server服务器的,敬请期待啦。

附:遇到的问题

如若遇到相关问题,可以查看日志,在LangBot项目的Docker目录下存在log文件夹,查看日志解决问题:

在这里插入图片描述

解决:

访问:

https://open.feishu.cn/app/cli_a9d5778e15389cef/auth?q=cardkit:card:write&op_from=openapi&token_type=tenant 

开通该权限即可。

Read more

DiT(Diffusion Transformer)详解——AIGC时代的新宠儿

DiT(Diffusion Transformer)详解——AIGC时代的新宠儿

扩散模型 相关知识点参考:小白也能读懂的AIGC扩散(Diffusion)模型系列讲解 文章目录论文定义架构与传统(U-Net)扩散模型区别架构噪声调度策略与传统扩散的相同输入图像的Patch化(Patchify)和位置编码Patch化位置编码DiT Block模块详细信息上下文条件化交叉注意力模块adaLN-Zero 模块Layer Normalization(LN)Adaptive Layer Normalization(AdaLN)AdaLN的核心步骤adaLN-ZeroadaLN-Zero的核心步骤说明DiT中具体的初始化U-ViT(U-Net Vision Transformer)DiT 和 U-ViT 的对比 推荐阅读: 1. 一文带你搞懂DiT(Diffusion Transformer) 2. Sora 基础作品之 DiT:Scalable Diffusion Models with Transformer 3. 此文DiT部分:视频生成Sora的全面解析:从AI绘画、ViT到ViViT、TECO、DiT、VDT、NaViT等 部分摘录

深入解析Stable Diffusion基石——潜在扩散模型(LDMs)

深入解析Stable Diffusion基石——潜在扩散模型(LDMs)

一、技术解读:潜在扩散模型——高分辨率图像合成的范式革命 1.1 核心动机:破解“质量-效率-可控性”的不可能三角 在潜在扩散模型(Latent Diffusion Models, LDMs)出现之前,高分辨率图像生成领域长期存在一个“不可能三角”:生成质量、计算效率、可控性难以兼得。 * GANs:能快速生成高质量图像,但训练极其不稳定,易出现模式崩溃(多样性差),且实现复杂条件的可控生成需要为不同任务设计特定架构,工程化成本极高。 * VAEs:训练稳定、架构简单,但其优化目标过度依赖像素级损失+强正则化,导致生成图像模糊、细节丢失严重,无法满足高保真生成需求。 * 像素空间扩散模型(DMs):生成质量顶尖,并支持无需重新训练的灵活引导(如修复、上色、超分),但其在百万维度的像素空间中直接进行迭代去噪,导致训练成本(通常需数百个GPU天)和推理成本(生成一张图需数分钟)高昂,仅能在超算中心或大厂落地,

VS Code+GitHub Copilot避坑指南:从安装配置到最佳实践的完整手册

VS Code + GitHub Copilot 深度驾驭手册:从避坑到精通的实战心法 如果你是一名 Visual Studio Code 的用户,并且对那个传说中能“读懂你心思”的 AI 编程伙伴 GitHub Copilot 感到好奇,甚至已经跃跃欲试,那么这篇文章就是为你准备的。我们不再重复那些泛泛而谈的“AI 将改变编程”的论调,而是直接切入核心:如何在你最熟悉的 VS Code 环境中,真正驯服 Copilot,让它从一个偶尔“胡言乱语”的助手,变成你编码流中如臂使指的高效组件。我们将聚焦于从安装配置的第一分钟开始,到融入你日常工作流的每一个细节,过程中你会遇到哪些真实的“坑”,以及如何优雅地跨过它们。这不是一篇简单的功能罗列,而是一份融合了配置技巧、心智模型和实战策略的深度指南。 1. 环境搭建与初始配置:奠定高效协作的基石 在兴奋地敲下第一行代码之前,一个稳固且经过优化的起点至关重要。许多初次使用者遇到的挫折,

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法 最近和几位刚入行的朋友聊天,发现他们虽然装了Vscode,也听说过GitHub Copilot的大名,但真正用起来的却不多。要么是觉得配置麻烦,要么是打开后只会傻傻地等它自动补全,完全没发挥出这个“AI结对程序员”的威力。这让我想起自己刚开始用Copilot那会儿,也是摸索了好一阵子才找到感觉。今天,我就把自己从安装到深度使用过程中,那些真正提升效率的实战心得整理出来,希望能帮你绕过那些坑,快速把Copilot变成你的开发利器。 GitHub Copilot远不止是一个高级的代码补全工具。当你真正理解它的工作模式,并学会与之高效“对话”时,它能在代码生成、逻辑解释、问题调试乃至学习新框架等多个维度,显著改变你的编程体验。这篇文章不会重复那些官网都有的基础操作,而是聚焦于五个经过实战检验的高效用法,让你从“会用”进阶到“精通”。 1. 环境准备与深度配置:不止是安装插件 很多教程把安装Copilot描述为“点一下按钮”那么简单,但要想获得流畅稳定的体验,一些前置准备和深度配置至关重要。这就像给赛车加油