配置钉钉龙虾OpenClaw机器人调用OpenMetadata

配置钉钉龙虾OpenClaw机器人调用OpenMetadata

目录

一、前言

在这里插入图片描述


先介绍下这四个工具/协议的定位与核心能力,本文将从零开始配置。

1️⃣钉钉(DingTalk)

阿里巴巴旗下的企业协作平台,2014年上线,是中国市场份额最大的企业即时通讯与办公套件之一。

核心能力包括:即时消息与视频会议、考勤打卡与审批流、企业通讯录、低代码应用搭建(宜搭)、以及近年来整合的 AI 助理功能。它更像一个"企业操作系统",把 HR、OA、协同文档、客户管理等功能整合在一个 App 里,主要面向中大型企业的内部运营。

2️⃣OpenClaw

OpenClaw 是一个开源、可自托管的个人 AI Agent 平台。可运行在你自己的笔记本上,连接你已有的聊天渠道(钉钉、飞书等平台)。
它不仅能聊天 ,更能执行任务:读写文件、处理邮件、运行代码、控制浏览器、调度工作流。
详见:https://zhuanlan.zhihu.com/p/2015027745743189513

3️⃣OpenMetadata

开源的统一元数据管理平台(类似 DataHub、Amundsen),专注解决企业数据治理的痛点。

它提供:数据资产目录(知道你有哪些表、API、仪表盘)、数据血缘追踪(知道数据从哪来、流向哪)、数据质量监控、数据所有权与标签管理,以及协作功能(让数据工程师和业务人员共同维护元数据)。目标是让企业真正"知道自己的数据",降低数据孤岛和治理混乱的风险。

4️⃣MCP(Model Context Protocol)

由 Anthropic 在 2024 年底提出并开源的标准协议,定义了 LLM(如 Claude)如何与外部工具、数据源进行标准化通信。

可以类比为 AI 领域的"USB-C"——在此之前,每个 AI 应用和工具的集成方式各自为政;MCP 提供了统一的接口规范,让 LLM 能以一致的方式调用文件系统、数据库、API、第三方服务等资源。开发者只需实现一次 MCP Server,就能被任何支持 MCP 的客户端(如 Claude、Cursor)调用,大幅降低集成成本。


二、安装OpenClaw

详见官方文档:https://docs.openclaw.ai/zh-CN/install

macOS/Linux 执行安装命令,更新也可执行此命令

curl-fsSL https://openclaw.ai/install.sh |bash

Windows 执行安装命令

iwr -useb https://openclaw.ai/install.ps1 | iex 

模型可以选Qwen,有免费额度,其它下一步就行,空格勾选,Enter下一步
安装后可以验证下

openclaw doctor # 检查配置问题 openclaw status # Gateway 网关状态 openclaw dashboard # 打开浏览器 UI

三、配置OpenClaw钉钉机器人

详见官方文档:https://open.dingtalk.com/document/dingstart/install-openclaw-locally

1️⃣安装钉钉插件

openclaw plugins install @dingtalk-real-ai/dingtalk-connector 

2️⃣在 OpenClaw 中添加钉钉配置
通过终端应用,在终端中输入执行 vim ~/.openclaw/openclaw.json 进入文件编辑:

{"channels":{"dingtalk-connector":{"clientId":"钉钉应用的Client Secret", // 必选:填入上方的 钉钉 Client ID "clientSecret":"钉钉应用的Client Secret", // 必选:填入上方的 Client Secret "gatewayToken":"Gateway 认证 token", // 必选:Gateway 认证 token, openclaw.json配置中 gateway.auth.token 的值 "gatewayPassword":"", // 可选:Gateway 认证 password(与 token 二选一) "sessionTimeout":1800000 // 可选:会话超时(ms),默认 30 分钟 }}, "gateway":{ // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下 "auth":{"mode":"token", "token":"Gateway 认证 token" // 必选:一般是安装时默认就有 }, "http":{"endpoints":{"chatCompletions":{"enabled":true // 必选 }}}}}

clientId和clientSecret见 https://alidocs.dingtalk.com/i/nodes/kDnRL6jAJMdn7BG2TwPE6LP0VyMoPYe1
钉钉机器人发布后,钉钉上搜索你创建的机器人。

在这里插入图片描述


语音也可以

在这里插入图片描述

四、调用OpenMetadata MCP

设置中获取OpenMetadata JWT 令牌,在Bots/McpApplicationBot
把MCP接口地址和令牌给龙虾,直接让连接即可

在这里插入图片描述
 OpenMetadata MCP 接口列表 1. search_metadata - 搜索元数据 功能: 在 OpenMetadata 目录中搜索数据资产和业务术语 支持搜索: 表、仪表板、主题、管道等元数据实体 关键参数: query - 自然语言搜索查询 entityType - 按实体类型过滤 queryFilter - 高级 OpenSearch JSON 查询 size - 返回结果数量(最大50) fields - 额外字段(如列信息、查询等) 2. get_entity_details - 获取实体详情 功能: 获取特定实体的详细信息 参数: entityType - 实体类型 fqn - 完全限定名称 3. get_entity_lineage - 获取血缘关系 功能: 获取实体的上下游依赖关系 用途: 根因分析(上游)或影响分析(下游) 参数: entityType - 实体类型 fqn - 完全限定名称 upstreamDepth - 上游遍历深度(默认3,最大10) downstreamDepth - 下游遍历深度(默认3,最大10) 4. create_glossary_term - 创建术语表术语 功能: 创建新的术语表术语 要求: 术语必须属于某个术语表 参数: glossary - 术语表完全限定名称 parentTerm - 父术语(可选) name - 术语名称 description - 术语描述 owners - 所有者列表 5. create_glossary - 创建术语表 功能: 创建新的术语表 参数: name - 术语表名称 description - 术语表描述 owners - 所有者列表 reviewers - 评审者列表 mutuallyExclusive - 术语是否互斥 6. patch_entity - 修补实体 功能: 基于 JSONPatch 修补实体 参数: entityType - 实体类型 fqn - 完全限定名称 patch - JSONPatch 字符串  接口分类 查询类接口 search_metadata - 搜索 get_entity_details - 详情 get_entity_lineage - 血缘 创建类接口 create_glossary - 创建术语表 create_glossary_term - 创建术语 更新类接口 patch_entity - 修补实体  使用场景 数据发现 search_metadata - 查找表、仪表板等 get_entity_details - 查看表结构、描述等 数据血缘分析 get_entity_lineage - 分析数据流向和依赖 数据治理 create_glossary - 创建业务术语表 create_glossary_term - 定义业务术语 patch_entity - 更新元数据信息  注意事项 搜索限制:size 参数最大为50,需要分页时使用 from 参数 血缘深度: 上游/下游深度最大为10,防止响应过大 术语表: 创建术语前需要先创建或选择术语表 权限: 需要有效的 Bearer Token 认证 
在这里插入图片描述


下面的操作有点吓人了,感觉真要被AI替代了!!!
我让统计一个提单量,本意是让它输出计算的SQL,它直接输出了统计报告,而且自动下载了pg客户端,还破解了数据库密码,自动执行。

在这里插入图片描述


家人们,我们失业了干啥呢😭

Read more

GLM-4v-9b实战指南:用llama.cpp GGUF格式在消费级GPU部署多模态模型

GLM-4v-9b实战指南:用llama.cpp GGUF格式在消费级GPU部署多模态模型 1. 为什么你需要关注GLM-4v-9b 你有没有遇到过这样的场景:一张密密麻麻的财务报表截图发到工作群,大家却没人愿意花十分钟手动抄录数据;或者客户发来一张手机拍的电路板照片,问“这个元件型号是什么”,你只能回个尴尬的微笑;又或者团队正在做竞品分析,需要从几十份PDF产品手册里快速提取图表信息——这些不是小问题,而是每天真实消耗工程师、运营、产品经理大量时间的“视觉理解黑洞”。 过去,这类任务要么靠人工硬啃,要么得调用API付费接口,响应慢、成本高、隐私难保障。直到2024年,智谱AI开源了glm-4v-9b——一个真正能在你自己的RTX 4090上跑起来的90亿参数多模态模型。它不只是一张“能看图说话”的新名片,而是把高分辨率图像理解能力,塞进了一张消费级显卡的显存里。 重点来了:它支持原生1120×1120输入,这意味着你不用再把一张A4扫描件缩成模糊小图上传;它对中文表格、小字号OCR、技术类图表的理解,在公开评测中直接超过了GPT-4-turbo和Claude 3 Opus;

使用 VS Code 与 GitHub Copilot 高效 Vibe Coding 指南

欢迎大家关注「几米宋」的微信公众号,公众号聚焦于云原生、AI、服务网格、工具教程、技术观察以及日常感悟等内容,更多精彩内容请访问个人网站 jimmysong.io。 📄 文章摘要 掌握 VS Code 与 GitHub Copilot 的高效开发技巧,提升你的编程体验与效率,开启愉快的 vibe coding 之旅。 🔗 在 jimmysong.io 上 阅读原文 体验更佳。 最近一段时间笔者试用了众多的 vibe coding(氛围编程)工具,但是试用了一圈后,最终还是选择了 VS Code 与 GitHub Copilot 的组合。不为别的,就是因为最得心应手、性价比最高、最有可扩展性。本文将从环境配置、工作空间和插件、界面布局、

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

项目简介 今天偶然发现了个堪称“赛博活佛”的AI网站,名叫Vheer。它的作风相当大方,里面绝大部分功能都直接免费敞开用,就问你服不服。 文生图、图生视频、智能修图这些主流AI功能一个不落。点开就能用。而且非常的大气,比如抠图,别的网站按张收费,它直接让你一口气传20张照片自动处理,完全免费,甚至你去花时间不需要注册。 它几乎移除了所有上手障碍。网站首页清晰地排列着各种功能,没有晦涩的术语。你想把文字变成图片,或者让静态照片动起来,点开对应的按钮,输入你的想法,结果很快就能呈现在你面前。整个过程简单得就像在用一款普通的手机APP。 食用指南 访问地址 传送地址 官网的免费会员上面写的几个非常吸引人的地方,第一没有任何水印,第二生成图片视频这些是没有任何数量上的限制,只有高级别的模型和高速通道不能使用(但是实测下来,生成的速度也是相当不错)。 网站也提供了一些订阅模式,可以使用更高级的模型,但是这些高级模型需要消耗算力点。根据自己的需要看是否订阅。 由于功能实在太多了,强烈建议亲手测试一下 操作与体验——文生图 官网光一个文生图的功能就折腾出来了40多个功能,除了

从GAN到ChatGPT:AIGC技术演进与实战应用指南

快速体验 在开始今天关于 从GAN到ChatGPT:AIGC技术演进与实战应用指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 从GAN到ChatGPT:AIGC技术演进与实战应用指南 技术背景:关键模型演进时间轴 2014年 - GAN横空出世 生成对抗网络(GAN)通过生成器与判别器的对抗训练,首次实现了高质量图像生成。核心突破在于: