在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

最近mimiclaw火爆,其开发团队也在密集更新,我看3天前已经可以用“飞书机器人”对话交互了。

目前网络上能查到的部署资料相对滞后,现在将飞书机器人的部署整理如下:

1. 前提

已经安装好ESP-IDF,并支持vscode编译esp32固件。

2. api-key准备

  • 注册deepseek,
  • 创建APIkey,
  • 并充值,新注册的用户余额为零,无法使用

3. 飞书机器人

我是在飞书个人版中,创建的机器人。

  1. 访问飞书开放平台,单击创建企业自建应用,填写应用名称和描述,选择应用图标,单击创建
  2. 左侧导航栏单击凭证与基础信息 页面,复制App ID(格式如 cli_xxx)和App Secret
  3. 配置事件订阅。
    1. 在飞书开放平台左侧导航栏单击事件与回调,在事件配置页签中单击订阅方式,选择使用 长连接 接收事件,单击保存
    2. 在事件配置页面,单击添加事件,搜索事件im.message.receive_v1(接收消息),单击确认添加

左侧导航栏中单击添加应用能力, 选择按能力添加页签,找到机器人卡片,单击配置

4. 启用网页搜索 api key

官方推荐使用Tavily API key,其官网: Tavily API 平台  https://app.tavily.com/home,

注册成功后,主页即有默认的APIkey。

5. 下载固件

github地址:memovai/mimiclaw: MimiClaw: Run OpenClaw on a $5 chip. No OS(Linux). No Node.js. No Mac mini. No Raspberry Pi. No VPS. Hardware agents OS.https://github.com/memovai/mimiclaw

下载固件后直接用vscode打开,打开main目录下的mimi_config.h文件

#ifndef MIMI_SECRET_WIFI_SSID #define MIMI_SECRET_WIFI_SSID "your wifi ssid" #endif #ifndef MIMI_SECRET_WIFI_PASS #define MIMI_SECRET_WIFI_PASS "your wifi password" #endif #ifndef MIMI_SECRET_TG_TOKEN #define MIMI_SECRET_TG_TOKEN "" #endif #ifndef MIMI_SECRET_API_KEY #define MIMI_SECRET_API_KEY "sk-bdb85222222222222222" //deep-seek的api-key #endif #ifndef MIMI_SECRET_MODEL #define MIMI_SECRET_MODEL "deepseek-chat" #endif #ifndef MIMI_SECRET_MODEL_PROVIDER #define MIMI_SECRET_MODEL_PROVIDER "openai" #endif #ifndef MIMI_SECRET_FEISHU_APP_ID #define MIMI_SECRET_FEISHU_APP_ID "cli_a92038b7" //飞书机器人的app-id #endif #ifndef MIMI_SECRET_FEISHU_APP_SECRET #define MIMI_SECRET_FEISHU_APP_SECRET "Md0gW97OP76" //飞书机器人的app-secret #endif #ifndef MIMI_SECRET_SEARCH_KEY #define MIMI_SECRET_SEARCH_KEY "tvly-dev-2jdvwG-am" //启用网页搜索,Tavily API key #endif //定义deep-seek的api请求地址 #define MIMI_OPENAI_API_URL "https://api.deepseek.com/v1/chat/completions" 

6. 烧录固件

先清除配置,再编译,再烧录。

7. 飞书机器人对话

8.参考资料

ESP32-S3 部署 MimicLaw 完整教程:从零到成功调用 DeepSeek-ZEEKLOG博客

mimiclaw GitHub主页说明资料:

mimiclaw/README_CN.md at main · memovai/mimiclaw

mimiclaw/main/channels/feishu/README.md at main · memovai/mimiclaw

Read more

2026年高校论文AI率新规解读:哪些学校已明确AIGC检测要求

2026年高校论文AI率新规解读:哪些学校已明确AIGC检测要求

2026年高校论文AI率新规解读:哪些学校已明确AIGC检测要求 引言:AI率检测成为毕业"新门槛" 2026年毕业季,一个让无数毕业生焦虑的新词频繁出现在各大高校的通知文件中——AIGC检测。和传统的查重率不同,AIGC检测针对的是论文中由人工智能生成内容的占比,也就是我们常说的"AI率"。 从2024年下半年开始,教育部就多次发文要求高校加强对学术不端行为的管理,其中明确将"使用AI工具代写论文"纳入学术不端范畴。进入2026年,越来越多的高校不再只是口头警示,而是将AIGC检测正式写入毕业论文管理办法,成为论文答辩前必须通过的一道硬性关卡。 那么,目前到底有哪些学校已经明确了AIGC检测要求?各校的AI率标准又是多少?这篇文章将为你全面梳理和解读2026年的高校论文AI率新规。 一、政策背景:为什么高校越来越重视AI率检测 1.1 AI写作工具的普及倒逼政策升级 ChatGPT在2022年底横空出世后,以其为代表的大语言模型迅速普及。国内如文心一言、通义千问、讯飞星火等AI工具相继上线,AI写作的门槛被大幅降低。据不完全统计,2025年有超过60%的在校大学生使

基于FPGA的北斗导航自适应抗干扰算法的设计与实现(任务书+开题报告+文献综述+代码+仿真+实物+毕业论文)

基于FPGA的北斗导航自适应抗干扰算法的设计与实现(任务书+开题报告+文献综述+代码+仿真+实物+毕业论文)

摘   要 如今,随着卫星导航技术的飞速发展,位置信息服务已经融入到我们的日常生活中,导航目前被称为继移动互联网后第三大产业。卫星导航在维护国家的安全中也发挥着不可替代的作用。为了使导航系统不受干扰的影响,本文以北斗导航系统为平台,研究基于阵列天线的自适应抗干扰算法。 首先,文章就自适应抗干扰算法的原理和方法进行了系统介绍,并在MATLAB中建立阵列模型,对基于功率倒置算法的空域抗干扰算法和空时联合抗干扰算法进行性能仿真。然后根据系统的指标,确定了在FPGA中实现抗干扰算法的方案,包括数字下变频、权值计算、数据加权、数字上变频等模块。根据权值计算模块实现方式的不同,本文提供了两种抗干扰算法在FPGA中实现的方案:一种是基于FPGA嵌入式软核NIOS II的抗干扰实现,将权值计算的过程放在NIOS II软核中,用C语言进行实现;另一种是基于逻辑语言的抗干扰算法的实现,即用硬件描述语言Verilog HDL进行权值的计算。权值计算涉及到浮点数运算和Hermite矩阵求逆,本文给出了各模块的设计方法和仿真结果,并与MATLAB仿真结果进行对比。最后给出了两种实现方案的实测结果,表明两种实

Windows 环境下 llama.cpp 编译 + Qwen 模型本地部署全指南

在大模型落地场景中,本地轻量化部署因低延迟、高隐私性、无需依赖云端算力等优势,成为开发者与 AI 爱好者的热门需求。本文聚焦 Windows 10/11(64 位)环境,详细拆解 llama.cpp 工具的编译流程(支持 CPU/GPU 双模式,GPU 加速需依赖 NVIDIA CUDA),并指导如何通过 modelscope 下载 GGUF 格式的 Qwen-7B-Chat 模型,最终实现模型本地启动与 API 服务搭建。 1.打开管理员权限的 PowerShell/CMD,执行以下命令克隆代码: git clone https://github.com/ggml-org/llama.cpp mkdir

Llama-3.2-3B开发者案例:Ollama部署后构建自动化周报生成工具

Llama-3.2-3B开发者案例:Ollama部署后构建自动化周报生成工具 你是不是也受够了每周写周报?对着空白的文档发呆,努力回想这周到底干了啥,最后只能憋出几句“处理日常事务”、“跟进项目进度”之类的套话。 作为一名开发者,我过去也深受其扰。直到我意识到,写周报本质上是一个信息提取、归纳总结和格式化输出的过程——这不正是大语言模型最擅长的事吗? 最近,我尝试用Ollama部署了Meta最新开源的轻量级模型Llama-3.2-3B,并基于它构建了一个自动化周报生成工具。整个过程比想象中简单,效果却出奇的好。今天,我就把这个从部署到应用的完整实践分享给你,让你也能轻松告别“周报焦虑”。 1. 为什么选择Llama-3.2-3B和Ollama? 在开始动手之前,我们先聊聊为什么是这两个技术组合。 Llama-3.2-3B是Meta在2024年推出的轻量级语言模型。别看它只有30亿参数,在多项基准测试中,它的表现已经超越了不少更大的开源模型,甚至在部分任务上能媲美一些闭源模型。对于文本总结、对话这类任务,它完全够用,而且对硬件要求友好,在消费级显卡甚至CPU上都能流畅运行。