在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

最近mimiclaw火爆,其开发团队也在密集更新,我看3天前已经可以用“飞书机器人”对话交互了。

目前网络上能查到的部署资料相对滞后,现在将飞书机器人的部署整理如下:

1. 前提

已经安装好ESP-IDF,并支持vscode编译esp32固件。

2. api-key准备

  • 注册deepseek,
  • 创建APIkey,
  • 并充值,新注册的用户余额为零,无法使用

3. 飞书机器人

我是在飞书个人版中,创建的机器人。

  1. 访问飞书开放平台,单击创建企业自建应用,填写应用名称和描述,选择应用图标,单击创建
  2. 左侧导航栏单击凭证与基础信息 页面,复制App ID(格式如 cli_xxx)和App Secret
  3. 配置事件订阅。
    1. 在飞书开放平台左侧导航栏单击事件与回调,在事件配置页签中单击订阅方式,选择使用 长连接 接收事件,单击保存
    2. 在事件配置页面,单击添加事件,搜索事件im.message.receive_v1(接收消息),单击确认添加

左侧导航栏中单击添加应用能力, 选择按能力添加页签,找到机器人卡片,单击配置

4. 启用网页搜索 api key

官方推荐使用Tavily API key,其官网: Tavily API 平台  https://app.tavily.com/home,

注册成功后,主页即有默认的APIkey。

5. 下载固件

github地址:memovai/mimiclaw: MimiClaw: Run OpenClaw on a $5 chip. No OS(Linux). No Node.js. No Mac mini. No Raspberry Pi. No VPS. Hardware agents OS.https://github.com/memovai/mimiclaw

下载固件后直接用vscode打开,打开main目录下的mimi_config.h文件

#ifndef MIMI_SECRET_WIFI_SSID #define MIMI_SECRET_WIFI_SSID "your wifi ssid" #endif #ifndef MIMI_SECRET_WIFI_PASS #define MIMI_SECRET_WIFI_PASS "your wifi password" #endif #ifndef MIMI_SECRET_TG_TOKEN #define MIMI_SECRET_TG_TOKEN "" #endif #ifndef MIMI_SECRET_API_KEY #define MIMI_SECRET_API_KEY "sk-bdb85222222222222222" //deep-seek的api-key #endif #ifndef MIMI_SECRET_MODEL #define MIMI_SECRET_MODEL "deepseek-chat" #endif #ifndef MIMI_SECRET_MODEL_PROVIDER #define MIMI_SECRET_MODEL_PROVIDER "openai" #endif #ifndef MIMI_SECRET_FEISHU_APP_ID #define MIMI_SECRET_FEISHU_APP_ID "cli_a92038b7" //飞书机器人的app-id #endif #ifndef MIMI_SECRET_FEISHU_APP_SECRET #define MIMI_SECRET_FEISHU_APP_SECRET "Md0gW97OP76" //飞书机器人的app-secret #endif #ifndef MIMI_SECRET_SEARCH_KEY #define MIMI_SECRET_SEARCH_KEY "tvly-dev-2jdvwG-am" //启用网页搜索,Tavily API key #endif //定义deep-seek的api请求地址 #define MIMI_OPENAI_API_URL "https://api.deepseek.com/v1/chat/completions" 

6. 烧录固件

先清除配置,再编译,再烧录。

7. 飞书机器人对话

8.参考资料

ESP32-S3 部署 MimicLaw 完整教程:从零到成功调用 DeepSeek-ZEEKLOG博客

mimiclaw GitHub主页说明资料:

mimiclaw/README_CN.md at main · memovai/mimiclaw

mimiclaw/main/channels/feishu/README.md at main · memovai/mimiclaw

Read more

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone

By Ne0inhk

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测 最近,阿里开源了新一代的千问大模型系列——Qwen3。这个系列阵容强大,从0.6B到235B,各种尺寸都有。今天,咱们不聊那些动辄几百亿参数的大块头,就聚焦一个特别有意思的小家伙:Qwen3-1.7B。 为什么是它?因为1.7B这个参数量,刚好卡在一个很微妙的位置:它比那些动辄几十亿参数的“大模型”轻巧得多,理论上部署和推理成本都更低;但又比一些纯玩具级别的微型模型要“聪明”不少。更重要的是,它主打的就是代码生成能力。 这让我立刻想到了一个“参照物”——GitHub Copilot。作为目前最流行的AI编程助手,Copilot几乎成了代码生成的代名词。那么,这个新来的、开源的、只有1.7B参数的Qwen3,在代码生成这件事上,到底有几斤几两?它能达到Copilot几成的功力?还是说,它有自己的独特优势? 这篇文章,我就带你一起上手实测,用最直观的方式,看看Qwen3-1.7B在代码生成上的真实表现,

By Ne0inhk

PyCharm+GitHub Copilot零成本配置手册:学生认证/2FA/汉化疑难一次解决

PyCharm + GitHub Copilot 零成本配置手册:从学生认证到流畅编码的全链路实战 作为一名学生开发者,你是否曾羡慕那些能流畅使用AI编程助手的同行,却苦于复杂的认证流程、网络环境的掣肘,或是面对英文界面时的些许不适?将前沿的AI工具无缝融入日常开发工作流,本应是一个提升效率的愉悦过程,而非充满障碍的挑战。今天,我们就来彻底解决这些问题,打造一套专为学生群体设计、开箱即用的PyCharm与GitHub Copilot生产力解决方案。这套方案不仅会手把手带你完成从学生身份验证到IDE集成的每一步,更会聚焦于国内用户常见的“水土不服”问题,提供稳定的替代方案和优化技巧,让你真正零成本、零门槛地拥抱AI辅助编程。 1. 基石构建:GitHub学生认证与账户安全加固 在享受任何福利之前,一个经过验证且安全的GitHub账户是首要前提。学生认证是获取GitHub Copilot Pro免费使用权的钥匙,而双重身份验证(2FA)则是守护这把钥匙的保险箱。 1.1 高效通过GitHub学生认证 学生认证的核心在于向GitHub证明你当前的在读身份。整个过程需要细心,但绝非

By Ne0inhk

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比 本文是《大模型推理框架深度解析》系列的第一篇,适合刚接触LLM部署的开发者阅读。 写在前面 随着大语言模型(LLM)的广泛应用,如何将模型高效地部署到生产环境成为每个AI工程师必须面对的问题。目前市面上主流的推理框架有Ollama、llama.cpp和vLLM,但它们的技术定位、适用场景差异巨大。 很多开发者在选型时容易陷入误区: * 用Ollama部署高并发API服务,结果吞吐量上不去 * 用vLLM跑边缘设备,发现资源占用过高 * 混淆llama.cpp和vLLM的定位,不知道何时该用哪个 本文将从架构分层视角出发,帮你建立清晰的选型认知。 一、三大框架的技术定位 1.1 三层架构视角 如果把LLM推理技术栈比作一座大厦,三个框架分别位于不同的楼层: ┌─────────────────────────────────────────────────────────────┐ │ 应用层(第3层) │ │ ┌─────────────┐ │ │ │ Ollama │

By Ne0inhk