企微群机器人发markdown消息支持表格

企微群机器人发markdown消息支持表格

结论

1.V1接口可以圈人,但是无法正确展示表格的markdown语法

2.V2接口可以展示表格的markdown语法,但是无法圈人

3.企微消息有长度限制

前言

今天是日本投降日,写篇技术文档。

企业微信机器人发markdown表格信息+如何艾特人

企微机器人发消息通知,目标是生成数据对比表格,然后艾特到具体的人来跟进事物的变化

1、成果收益

发表格数据,圈人

2、背景

目前机器人通知的内容太单调了,无法满足告警提醒的作用,需要罗列表格进行对比,需要艾特到具体人

3、解决方案

如何支持markdown表格类型

1.企业微信从4.1.38开始支持markdown表格的语法了。可以参看官方文档4.1.38版本新功能介绍

所以企业客户端要升级

2.我们历史使用的是msgtype:markdown,这个还是不支持的

{ "msgtype": "markdown", "markdown": { "content": "实时用户反馈<font color=\"warning\">132例</font>,请相关同事注意。\n>类型:<font color=\"comment\">用户反馈</font>\n>普通用户反馈:<font color=\"comment\">117例</font>\n>VIP用户反馈:<font color=\"comment\">15例</font>" } }

3.需要使用markdown_v2的接口才能支持

{ "msgtype": "markdown_v2", "markdown_v2": { "content": "# 一、标题\n## 二级标题\n### 三级标题\n# 二、字体\n*斜体*\n\n**加粗**\n# 三、列表 \n- 无序列表 1 \n- 无序列表 2\n - 无序列表 2.1\n - 无序列表 2.2\n1. 有序列表 1\n2. 有序列表 2\n# 四、引用\n> 一级引用\n>>二级引用\n>>>三级引用\n# 五、链接\n[这是一个链接](https:work.weixin.qq.com\/api\/doc)\n![](https://res.mail.qq.com/node/ww/wwopenmng/images/independent/doc/test_pic_msg1.png)\n# 六、分割线\n\n---\n# 七、代码\n`这是行内代码`\n```\n这是独立代码块\n```\n\n# 八、表格\n| 姓名 | 文化衫尺寸 | 收货地址 |\n| :----- | :----: | -------: |\n| 张三 | S | 广州 |\n| 李四 | L | 深圳 |\n" } }

具体支持那些可以参看 markdown_v2类型入参说明

如何艾特人

v2的接口明确说了不支持@群成员的语法,这就是鱼和熊掌不可兼得么。

这里需要使用markdown类型

{ "msgtype": "markdown", "markdown": { "content": "实时新增用户反馈<font color=\"warning\">132例</font><@userId>" }

语法就是:

这里可以用userId,enterpiseWeChatId这个ID也可以

<@userID> 

4、参考资料:

https://work.weixin.qq.com/nl/act/p/934e08ec64874715?ver=4.1.38&type=mng&lang=zh&scene=undefined

Read more

开源大模型深度研究报告:LLaMA 2_3、Qwen与DeepSeek技术对比分析

开源大模型LLaMA 2/3、Qwen 与 DeepSeek 技术对比分析 研究背景与目标 2025 年,开源大模型生态正经历前所未有的技术爆发期。以 Meta 的 LLaMA 系列、阿里巴巴的 Qwen 系列和 DeepSeek 公司的 DeepSeek-R1 为代表的三大开源模型体系,在技术架构、训练方法和应用性能方面展现出各自独特的创新路径(164)。这些模型不仅在学术研究领域发挥着重要作用,更在企业级应用、边缘计算和多模态处理等场景中展现出巨大潜力。 本研究报告旨在全面分析 LLaMA 2/3、Qwen 和 DeepSeek 三大开源模型的技术特点、性能表现和应用价值,为研究者和工程师提供系统性的技术对比分析。通过深入剖析各模型的架构设计、训练策略和实际部署成本,本报告将帮助读者理解不同模型的技术优势和适用场景,为模型选择和应用部署提供决策参考。 一、三大开源模型技术架构深度解析 1.1 LLaMA 3 系列架构创新

ComfyUI-Manager实战指南:4个核心价值解决AI绘画插件管理痛点

ComfyUI-Manager实战指南:4个核心价值解决AI绘画插件管理痛点 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager 在AI绘画创作中,插件管理的效率直接决定工作流质量。ComfyUI效率提升的关键在于能否快速构建稳定的插件生态,而ComfyUI-Manager正是为此打造的专业工具。本文将通过场景化解决方案,帮助你彻底摆脱插件安装繁琐、版本冲突频发、环境配置耗时的困境,让AI绘画创作更加流畅高效。 🔍 当插件冲突导致工作流崩溃时,你需要怎样的解决方案? 插件生态就像一幅复杂的拼图,每个插件都是不可或缺的拼块。但当拼块之间无法兼容时,整个创作流程就会陷入停滞。传统解决方式往往需要手动排查冲突源、卸载重装插件,整个过程平均耗时3小时,且成功率不足50%。 核心价值:智能兼容性守护 ComfyUI-Manager的安全验证模块会在插件安装前进行全面扫描,自动识别潜在的"插件打架问题"。该模块通过分析插件依赖关系和版本兼容性,提前规避90%以上的冲突风险。当

Whisper 模型本地化部署:全版本下载链接与离线环境搭建教程

Whisper 模型本地化部署指南 一、模型版本与下载 Whisper 提供多种规模版本,可通过以下官方渠道获取: 1. GitHub 仓库 https://github.com/openai/whisper 包含最新代码、预训练权重和文档 * tiny.en / tiny * base.en / base * small.en / small * medium.en / medium * large-v2 (最新大模型) Hugging Face 模型库 所有版本下载路径: https://huggingface.co/openai/whisper-{version}/tree/main 替换 {version} 为具体型号: 二、离线环境搭建教程 准备工作 1.

FLUX.1-dev创意工作流:从Midjourney迁移指南+Prompt工程适配最佳实践

FLUX.1-dev创意工作流:从Midjourney迁移指南+Prompt工程适配最佳实践 如果你是从Midjourney转向本地部署的创作者,或者正在寻找一个画质顶尖、永不崩溃的AI绘图方案,那么这篇文章就是为你准备的。 Midjourney以其出色的艺术表现力,成为了许多人的AI绘图启蒙工具。但你是否也遇到过这些问题:生成次数有限制、排队等待时间长、无法深度定制生成参数、或者对生成内容的隐私性有顾虑?当你的创作需求从“玩一玩”升级到“生产力”时,一个稳定、私密、可控的本地化方案就显得尤为重要。 今天,我们将深入探讨如何将你的创意工作流,从Midjourney平滑迁移到FLUX.1-dev旗舰版。这不仅仅是一个工具替换,更是一次创作能力的全面升级。我们将重点解决两个核心问题:如何快速上手这个强大的本地系统,以及如何将你熟悉的Midjourney Prompt技巧,完美适配到FLUX模型上,让你无缝衔接,甚至获得更惊艳的成果。 1. 为什么选择FLUX.1-dev作为你的下一站? 在深入迁移细节之前,我们先来了解一下这个“新家”到底强在哪里。你拿到的这个FLUX.1-de