让 clawdbot(openclaw) 变身超强米家管家:一套通用的 AI Agent 智能家居控制方案

【开源】让 clawdbot(openclaw) 变身超强米家管家:一套通用的 AI Agent 智能家居控制方案

💡 引言

还在用传统的手机 APP 一个个点选开关?或者受限于小爱同学相对固定的指令集?随着 AI Agent(人工智能代理)时代的到来,我们完全可以用更自然、更像“真人”的方式来掌管我们的智能家居。

最近我开发并整理了一套米家控制通用 AI 代理技能包,实测在 Claude (Agent Skills)GitHub Copilot 以及 Cursor 等 AI 助理中运行非常完美。今天就把这套方案分享给大家。


在这里插入图片描述

🔥 核心亮点

  1. 真正的自然语言理解:不用死记硬背指令,对 AI 说“我要睡觉了”,它会自动帮你关灯、拉窗帘、开启空气净化器睡眠模式。
  2. 跨平台兼容:不仅支持 Claude 的官方 Skill 模式,也能在任何具备本地文件读取和 Python 执行能力的 AI 环境中运行。
  3. 自愈式环境配置:内置环境自检脚本,如果依赖没装或者没登录,AI 会引导你一步步完成。
  4. 安全可靠:针对开锁、摄像头等敏感操作,强制加入二次确认逻辑。

🏗️ 项目架构

该项目主要由以下几部分组成:

  • mijiaAPI 驱动:底层基于开源的米家协议封装,支持扫码登录。
  • Skill 定义 (SKILL.md):向 AI 声明它具备的能力和触发条件。
    • SOP 指令 (instructions.md):详细的逻辑步骤,确保 AI “做事有章法”。
    • 执行脚本 (scripts/):包含环境检查、设备枚举和精准控制的纯 Python 实现。
    • 设备映射表 (reference/):解决了不同厂商型号不同导致的 siid/piid 匹配难题。

🛠️ 快速上手

1. 准备环境

确保你的电脑安装了 Python 3.8+ 环境。建议在虚拟环境中操作:

# 进入项目目录cd mijia-skills # 创建并激活虚拟环境 python -m venv .venv .\.venv\Scripts\activate # Windows

2. 安装依赖

直接以可编辑模式安装项目,会自动通过 setup.py (或 requirements) 配置好命令:

pip install -e .

3. 扫码登录

运行以下命令,使用米家 APP 扫描出现的二维码完成授权:

mijiaAPI -l 

🚀 进阶玩法:联动 Claude / Cursor / Copilot

将此项目文件夹打开,你可以直接对 AI 发起挑战:

User: “看看客厅现在的温湿度是多少?如果超过26度就帮我把空调打开,制冷模式,24度。”

Claude: (自动调用 list_devices.py 查找设备 -> 解析 device_catalogs.md 获取 siid/piid -> 调用 control_device.py -> 返回结果) “好的,当前客厅温度 27.5℃,已为您开启空调并设置为制冷 24℃。”

🔒 安全与建议

  • 二次确认:在 instructions.md 中,我特别设定了敏感操作必须询问用户。
  • 本地执行:所有控制指令均在本地触发,不经过任何第三方中转云(除小米官方 API 外),隐私更有保障。

📈 结语

这套方案真正让 AI 从“聊天框”走进了“物理世界”。如果你也想打造一个真正懂你的 AI 管家,欢迎尝试这个项目!

项目地址: https://github.com/lllooollpp/mijia-skills.git (记得给个 Star ⭐️ 哦!)


#SmartHome #AI #Claude #Agent #Mijia #Python #开源项目

Read more

【Spring Boot开发实战手册】掌握Springboot开发技巧和窍门(十三)前端匹配界面、后端匹配WebSocket

【Spring Boot开发实战手册】掌握Springboot开发技巧和窍门(十三)前端匹配界面、后端匹配WebSocket

前言 在现代 Web 开发中,前端和后端的协作变得越来越重要,特别是在需要实时交互和数据更新的应用场景中。WebSocket 技术作为一种全双工通信协议,使得前端和后端之间的实时数据传输变得更加高效和稳定。本篇博客将会探讨如何设计和实现一个实时匹配系统,其中前端负责展示用户界面并与后端进行交互,而后端则通过 WebSocket 协议来处理数据通信。 前端 onMounted: 当组件被挂载的时候执行的函数 onUnmonted: 当组件被卸载的时候执行的函数 初步调试阶段,我们是将token传进user.id的 store/pk.js: import ModuleUser from'./user'exportdefault{state:{socket:null,//ws链接opponent_username:"",opponent_photo:"",status:"matching",//matching表示匹配界面,playing表示对战界面},getters:

.NET 的 WebApi 项目必要可配置项都有哪些?

.NET 的 WebApi 项目必要可配置项都有哪些?

目录 一、数据库配置 (一)选择合适的数据库提供程序 (二)配置数据库连接字符串 (三)数据库迁移(以 EF Core 为例) 二、依赖注入配置 (一)理解依赖注入 (二)注册服务 (三)使用依赖注入 三、Swagger 配置 (一)安装 Swagger 相关包 (二)配置 Swagger 服务 (三)启用 Swagger 中间件 四、接口接收和输出大小写配置 (一)接口接收大小写配置 (二)接口输出大小写配置 五、跨域配置 (一)什么是跨域 (二)配置跨域 六、身份验证与授权配置

本地服务器用 OpenClaw + Open WebUI 搭建企业多部门 AI 平台(附 Docker 避坑指南)

本地服务器用 OpenClaw + Open WebUI 搭建企业多部门 AI 平台(附 Docker 避坑指南)

引言: 最近在尝试使用 OpenClaw,发现这个 AI 个人助理框架非常有意思。于是团队里就有人提出:能不能为公司的多个部门,分别搭建专属的 OpenClaw 服务器? 诚然,现在有钉钉、飞书等成熟的办公软件可以接入 AI,但对于一些尚未全面普及此类协作软件的企业(或者需要绝对私有化部署的团队)来说,独立搭建一套内部 AI 门户依然是刚需。 起初,我们考虑直接让大家通过 OpenClaw 自带的 Web 界面进行跨电脑访问。但实操后发现这存在致命缺陷: 1. 权限越界:自带的 Web 端拥有底层的配置编辑权限,暴露给普通员工极其不安全。 2. 无法溯源:多终端共用一个 Web 界面,根本无法追溯对话是由谁发起的。 3. 缺乏隔离:无法按部门精细化分配 API 额度或限制特定部门只能访问特定的 OpenClaw 节点,无法实现业务隔离。 为了解决这些痛点,我们最终确定了这套架构方案:

gpt-oss-20b-WEBUI安装失败?这五个点必须检查

gpt-oss-20b-WEBUI安装失败?这五个点必须检查 你是不是也遇到过这样的情况:镜像已经部署完成,网页推理入口也点开了,但页面一直转圈、报错404、提示“Connection refused”,或者干脆连后台服务都起不来?别急着重装——gpt-oss-20b-WEBUI这类基于vLLM+OpenWebUI的轻量级开源推理镜像,安装失败往往不是模型本身的问题,而是几个关键环节被忽略了。 本文不讲从零编译、不堆参数配置,只聚焦一个目标:帮你快速定位并解决90%以上的部署卡点。我们结合真实部署日志、用户反馈和镜像运行机制,提炼出五个最常被跳过的检查项。它们不炫技、不复杂,但每一条都直击安装失败的核心原因。 1. 显存是否真够用?别被“双卡4090D”误导 镜像文档里写着“双卡4090D(vGPU),微调最低要求48GB显存”,但很多人忽略了这句话的潜台词:这是指vLLM推理时实际可用的显存,不是系统显示的总显存。 vLLM对显存的使用非常“挑剔”。它需要连续的大块显存来加载KV缓存,而GPU在启动过程中会被系统、驱动、X Server甚至NVIDIA Container