企微群机器人发markdown消息支持表格

企微群机器人发markdown消息支持表格

结论

1.V1接口可以圈人,但是无法正确展示表格的markdown语法

2.V2接口可以展示表格的markdown语法,但是无法圈人

3.企微消息有长度限制

前言

今天是日本投降日,写篇技术文档。

企业微信机器人发markdown表格信息+如何艾特人

企微机器人发消息通知,目标是生成数据对比表格,然后艾特到具体的人来跟进事物的变化

1、成果收益

发表格数据,圈人

2、背景

目前机器人通知的内容太单调了,无法满足告警提醒的作用,需要罗列表格进行对比,需要艾特到具体人

3、解决方案

如何支持markdown表格类型

1.企业微信从4.1.38开始支持markdown表格的语法了。可以参看官方文档4.1.38版本新功能介绍

所以企业客户端要升级

2.我们历史使用的是msgtype:markdown,这个还是不支持的

{ "msgtype": "markdown", "markdown": { "content": "实时用户反馈<font color=\"warning\">132例</font>,请相关同事注意。\n>类型:<font color=\"comment\">用户反馈</font>\n>普通用户反馈:<font color=\"comment\">117例</font>\n>VIP用户反馈:<font color=\"comment\">15例</font>" } }

3.需要使用markdown_v2的接口才能支持

{ "msgtype": "markdown_v2", "markdown_v2": { "content": "# 一、标题\n## 二级标题\n### 三级标题\n# 二、字体\n*斜体*\n\n**加粗**\n# 三、列表 \n- 无序列表 1 \n- 无序列表 2\n - 无序列表 2.1\n - 无序列表 2.2\n1. 有序列表 1\n2. 有序列表 2\n# 四、引用\n> 一级引用\n>>二级引用\n>>>三级引用\n# 五、链接\n[这是一个链接](https:work.weixin.qq.com\/api\/doc)\n![](https://res.mail.qq.com/node/ww/wwopenmng/images/independent/doc/test_pic_msg1.png)\n# 六、分割线\n\n---\n# 七、代码\n`这是行内代码`\n```\n这是独立代码块\n```\n\n# 八、表格\n| 姓名 | 文化衫尺寸 | 收货地址 |\n| :----- | :----: | -------: |\n| 张三 | S | 广州 |\n| 李四 | L | 深圳 |\n" } }

具体支持那些可以参看 markdown_v2类型入参说明

如何艾特人

v2的接口明确说了不支持@群成员的语法,这就是鱼和熊掌不可兼得么。

这里需要使用markdown类型

{ "msgtype": "markdown", "markdown": { "content": "实时新增用户反馈<font color=\"warning\">132例</font><@userId>" }

语法就是:

这里可以用userId,enterpiseWeChatId这个ID也可以

<@userID> 

4、参考资料:

https://work.weixin.qq.com/nl/act/p/934e08ec64874715?ver=4.1.38&type=mng&lang=zh&scene=undefined

Read more

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

文章目录 * 从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南 💻✨ * 一、语法纠错:Copilot 如何成为你的“实时校对员” ✅ * 示例 1:自动修复缩进错误 * 示例 2:括号/引号自动闭合与修复 * 示例 3:类型注解缺失的智能补充 * 实战技巧:结合 Linter 使用 Copilot * 二、代码生成:从单行补全到完整函数实现 🧠⚡ * 示例 4:用注释驱动函数生成 * 示例 5:生成单元测试 * 示例 6:异步 HTTP 请求生成 * 三、调试辅助:Copilot 如何帮你“读懂”错误信息 🐞🔍 * 场景:遇到 `KeyError` 怎么办? * 场景:

【Python数据采集】Python爬取小红书搜索关键词下面的所有笔记的内容、点赞数量、评论数量等数据,绘制词云图、词频分析、数据分析

【Python数据采集】Python爬取小红书搜索关键词下面的所有笔记的内容、点赞数量、评论数量等数据,绘制词云图、词频分析、数据分析

Python爬取小红书搜索关键词下面的所有笔记的内容、点赞数量、评论数量等数据,绘制词云图、词频分析、数据分析 使用 Python 编写一个简单的爬虫程序来从小红书抓取与指定关键词相关的笔记数据,并对这些数据进行基本的数据分析,包括词云图和柱状图的绘制。 配套视频请看:配套视频教程 完整程序源码地址:完整程序源码地址 本教程分为两大部分:爬虫部分 和 数据分析部分。 * 爬虫部分:从指定关键词的小红书中获取相关笔记的信息(如标题、链接、用户信息、互动数据等),并保存为 CSV 文件。 * 数据分析部分:加载生成的 CSV 文件,进行文本清洗、分词,然后生成词云图和柱状图以直观展示数据特征。 必要的第三方库 * Python * Requests:发送 HTTP 请求 * execjs:执行 JavaScript 代码(用于 js 逆向) * json &

一文快速上手 Python 中文分词神器 —— jieba 库

一文快速上手 Python 中文分词神器 —— jieba 库

在自然语言处理(NLP)中,中文文本处理的第一步通常是——分词。 由于中文没有像英文那样的空格分隔单词,因此我们需要一个智能工具来识别“词语”的边界。 👉 这时候,jieba 就是最常用也最强大的中文分词库之一。 本文将带你快速上手 jieba,从安装到实战,仅需 10 分钟即可掌握核心用法。 文章目录 * 一、jieba 是什么? * 二、安装 jieba * 三、jieba 的三种分词模式 * 精确模式(默认) * 全模式 * 搜索引擎模式 * 四、添加自定义词典 * 方法一:动态添加词语 * 方法二:加载外部词典文件 * 五、关键词提取 * 六、词性标注(Part-of-Speech Tagging) * 七、并行分词(多线程) * 八、完整示例:从句子到词云

基于Python的单细胞虚拟基因敲除分析及高级可视化:从数据预处理到UMAP分析

基于Python的单细胞虚拟基因敲除分析及高级可视化:从数据预处理到UMAP分析 研究方法详细描述: 本研究提出了一种基于Python的单细胞虚拟基因敲除分析方法,结合了虚拟基因敲除(Virtual Knockout, VKO)技术、差异表达分析、网络分析和UMAP降维,可有效评估目标基因敲除对细胞基因调控网络的影响。该方法主要包括数据预处理、虚拟敲除分析、差异基因分析以及多种高级可视化(如柱状图、火山图、饼图、UMAP图、热图和基因网络图)的生成。 1. 数据预处理: 数据预处理是本研究分析的第一步,主要包括以下内容: * 质量控制(QC):使用 scanpy 的 calculate_qc_metrics 函数计算基因和细胞的质量指标(如基因数、UMI数、线粒体基因的比例等),并根据这些质量指标过滤掉低质量的细胞和基因。 * 归一化:使用 scanpy 中的 normalize_total 和 log1p 函数对数据进行归一化处理,并将数据转换为对数表达量。 * 识别高变基因:使用