75元!复刻Moji 2.0 小智 AI 桌面机器人,基于乐鑫ESP32开发板,内置DeepSeek、Qwen大模型

文末联系小编,获取项目源码

Moji 2.0 是一个栖息在你桌面上的“有灵魂的伴侣”,采用乐鑫 ESP32-C5开发板,配置 1.5寸 360x360 高清屏,FPC 插接方式,支持 5G Wi-Fi 6 极速连接,内置小智 AI 2.0 系统,主要充当智能电子宠物的角色,在你工作学习枯燥时,通过圆形屏幕上的动态表情包卖萌解压,提供情绪陪伴;同时它也是功能强大的AI 语音助手,支持像真人一样流畅的连续对话,随时为你查询天气、解答疑惑或闲聊解闷,非常适合作为极客桌搭或嵌入式学习的开源平台。

🛠️ 装配进化

告别手焊屏幕的噩梦。全新设计的 FPC 插座连接,排线一插即锁,将复刻门槛降至最低。

🚀 性能进化

主控升级为 ESP32-C5。支持 5GHz Wi-Fi 6,在复杂的智能家居网络中,语音交互响应快如闪电。

👁️ 视觉进化

屏幕尺寸跃升至 1.5寸 (360x360)。配合 QSPI 协议 驱动,动画丝滑流畅,彻底告别撕裂与拖影。

🔈 听感进化

重构音频电路,采用 ES8311 全差分链路。有效抵消射频干扰,背景底噪深邃宁静。

🔋 能源进化

内置 500mAh 电池,搭配 DC-DC 高效电源与无线充电预留接口,随手一放即可回血。

🤖 小智AI 2.0

完美适配最新固件。支持全双工语音对话、打断唤醒,响应速度质的飞跃。

😀 自定义表情

得益于大内存和 QSPI 屏,支持自定义图片/GIF 表情。根据对话情绪(开心/生气)自动切换。

🤖 技术架构

Moji 2.0 小智AI机器人项目构建起从硬件接入、智能体构建到生态联动的一站式开发流程,它不仅是智能工具,更是一个真正“懂你”的AI助理。无论是在解决问题还是分享快乐,小智AI聊天机器人都以独特的智慧和温柔的方式,使科技更加有温度,生活更美好。ESP32智能AI套件为开发者提供了一条高效、开放、具备可复制性的落地路径。

图片
  • 通信协议 基于 xiaozhi-esp32 协议,通过 WebSocket 实现数据交互。
  • 对话交互 支持唤醒对话、手动对话及实时打断。长时间无对话时自动休眠
  • 多语言识别 支持国语、粤语、英语、日语、韩语(默认使用 FunASR)。
  • LLM 模块 支持灵活切换 LLM 模块,可选阿里通义Qwen、DeepSeek、OpenAI 等

主控芯片:ESP32-C5(双频 Wi - Fi 6+ RISC - V )

屏幕规格:1.5寸 IPS 高清圆屏(360x360分辨率)

驱动接口:高速 QSPI 协议

音频方案:ES8311解码+全差分走线

电源系统:500mAh电池+ DC / DC 稳压

软件生态:适配小智 AI 2.0

Moji 2.0 核心功能

  • 离线语音唤醒:通过 ESP-SR 实现。
  • 流式语音对话:支持 WebSocket 和 UDP 协议。
  • 声纹识别:识别说话者身份。
  • 短期记忆:对每轮对话进行总结。
  • 自定义角色:支持提示词和音色设置。
  • LCD 显示屏:显示emoji及对话内容。
  • 大模型:可接入DeepSeek、OpenAI 、Qwen等
  • 联网能力:支持 Wi-Fi 和 4G 双网络接入

🛠️ 硬件组装

图片

芯片焊接:音频芯片 ES8311 为 QFN 封装,必须使用热风qiang或加热台,仅靠电烙铁无法完成。

焊接顺序:强烈建议先验证喇叭有声音之后,最后再焊接麦克风,避免麦克风损坏导致排查困难。

麦克风温控:麦克风极度怕热,风qiang温度需 ≤300°C 且吹焊时间小于 10 秒。

洗板水禁忌:清理焊盘时,严禁洗板水/酒精渗入麦克风拾音孔,否则会导致麦克风永久失效。

PCB 厚度:下单打板时请务必选择 1.6mm,否则 Type-C 接口高度不匹配外壳。

屏幕安装:安装排线时,先确认排线方向然后对准插座,缓慢插入排线。切勿暴力硬插。

固件烧录:建议使用 ESP Flash Download Tool,地址设为 0x00000。需按住 Boot 键插入 USB 进入烧录模式。

🚀 物料清单

🎯 原理图和PCB板

🌳 写在最后

Moji智能AI助手可以搭载多种开源AI大模型( DeepSeek、OpenAI 、通义千问),通过对话角色自定义、海量知识库、长期记忆、语音声纹识别等功能,成为了一个真正“懂你”的AI助理。无论是在解决问题还是分享快乐,Moji 都以独特的智慧和温柔的方式,使科技更加有温度,生活更美好。

ESP32 智能AI项目源码:

https://github.com/78/xiaozhi-esp32

Moji 智能AI助手 3D建模资料获取:

https://makerworld.com.cn/zh/@MoveCall

Moji 智能AI助手项目资料获取:

https://oshwhub.com/movecall/moji2


如有IoT 源码采购和项目交付需求,商务合作,企业产品推广,请扫码联系小编,微信号: beacon0418

往期推荐

开箱即用!国产开源30+AI视觉算法IoT智能物联网云平台

国产开源Web 工业IoT组态软件,支持Modbus、OPC,支持拖拉拽

源码交付,7天完成国产信创部署智慧工地方案

4万元,国产信创私有化部署,破解县域无人机AI巡检平台落地难题

上班摸鱼, 智能 AI 监控老板行踪

免费开源,千知AI知识图谱平台,支持DeepSeek、Qwen

信创部署,源码交付!县域低空经济无人机 AI 巡检平台

智慧农业大爆发:AI+物联网+区块链重构“天空地”一体化监测

免责声明:本公众号所发布的内容来源于互联网,我们会尊重并维护原作者的权益。由于信息来源众多,若文章内容出现版权问题,或文中使用的图片、资料、下载链接等,如涉及侵权,请告知我们,我们将尽快处理。主理人微信: beacon0418

Read more

大学生AI写作工具全流程应用指南(从开题到答辩)

说明:本清单按论文写作时间线划分6个核心阶段,明确各阶段工具搭配、操作要点及注意事项,可直接对照执行,兼顾效率与学术合规性。 阶段1:开题阶段(核心目标:确定选题+完成开题报告) 工具搭配:豆包AI + PaperRed 操作步骤: 1. 选题构思:打开豆包AI,输入“XX专业(如汉语言文学)本科论文选题方向”,获取5-8套开题思路;同时用PaperRed的“学术热点图谱”功能,输入核心关键词,查看近3年文献增长趋势与研究空白区,筛选出兼具可行性与创新性的选题。 2. 框架及内容生成:在PaperRed中选择“开题报告”,输入确定的选题,选择自己学校的模板,生成包含“研究背景、目的意义、研究方法、进度安排”的标准框架及内容并且格式也是调整好的,生成基础内容后人工优化,确保逻辑连贯。 注意事项:选题需结合自身专业基础,避免过度依赖AI选择超出能力范围的课题。 阶段2:文献搜集与梳理阶段(核心目标:高效获取权威文献+

AI支持下的高水平学术论文写作:从前沿选题挖掘、智能写作工程、顶刊图表可视化、到精准选刊投稿与审稿博弈策略

AI支持下的高水平学术论文写作:从前沿选题挖掘、智能写作工程、顶刊图表可视化、到精准选刊投稿与审稿博弈策略

SCI论文写作是科学研究成果传播和学术交流的重要途径,不仅是研究者展示创新性和学术贡献的核心方式,也是提升个人学术影响力和职业发展的关键手段。你是否经历以下阶段:文献不知如何检索和管理?文献越读越多,却不知道下一步做什么?想法很多,却始终落不到一篇完整的论文?软件装了一堆,科研效率却没有本质提升?AI用过,但始终停留在“翻译+润色”的初级阶段?在AI时代,顶级科研者正在做的,已不只是“翻译和润色”,而是构建属于自己的科研第二大脑。本课程对SCI论文从准备到投稿全流程进行讲解,帮你搭建一条从文献→想法→写作→投稿→审稿的全流程清晰可复制的路径,通过顶刊逻辑×AI赋能×可复制科研能力,三个纬度提升SCI论文的写作效率和投稿命中率。 SCI论文写作是科学研究成果传播和学术交流的重要途径,不仅是研究者展示创新性和学术贡献的核心方式,也是提升个人学术影响力和职业发展的关键手段。你是否经历以下阶段:文献不知如何检索和管理?文献越读越多,却不知道下一步做什么?想法很多,却始终落不到一篇完整的论文?软件装了一堆,科研效率却没有本质提升?AI用过,但始终停留在“翻译+润色”的初级阶段?在AI时代,顶级

LLaMA-Factory微调(LoRA)Qwen2.5实战

为什么要微调(LoRA方法)Qwen2.5通用大模型?         微调后可让Qwen2.5在某些领域更专业化,例如使Qwen2.5更拟人、更温柔、语调生动。 LLaMA-Factory概述         LLaMA-Factory 是目前公认最好用、门槛最低的开源微调工具。它把复杂的代码封装成了可视化的界面,让你像填表一样就能训练模型。。它的核心目标是让普通开发者和研究者也能在消费级显卡(如 4090)上轻松微调千亿参数的大模型。         它的核心优势: 1. 零代码 WebUI:它提供了一个网页界面(如上图),你只需要在下拉菜单里选模型、选数据集、填参数,点“开始”就行,不用写一行 Python 代码。 2. 全能支持: * 模型:支持几乎所有主流模型(Llama 3, Qwen, Baichuan, ChatGLM, Mistral, Gemma, DeepSeek 等)。 * 方法:支持

拥抱开源生态:Llama-Factory统一接口简化多模型管理

拥抱开源生态:Llama-Factory统一接口简化多模型管理 在大语言模型(LLM)迅速渗透各行各业的今天,从智能客服到代码生成、从知识问答到个性化推荐,定制化模型已成为提升业务竞争力的关键手段。然而,现实却并不总是理想——尽管 Hugging Face 上已有成千上万的开源模型,真正能“拿来即用”的少之又少。每个主流架构——LLaMA、Qwen、ChatGLM、Baichuan——都有各自的加载方式、Tokenizer 规则和微调习惯,开发者往往需要为不同模型重写训练脚本、反复调试环境依赖,甚至因为显存不足而被迫放弃更大规模的尝试。 这正是 Llama-Factory 的价值所在。它不只是一款工具,更像是一个“翻译器”与“加速器”的结合体:将五花八门的大模型纳入同一套操作体系,让开发者无需深陷底层细节,就能高效完成从数据准备到部署上线的全流程任务。 统一接口如何打破模型壁垒? 想象一下这样的场景:你正在评估 Qwen-7B 和 LLaMA-3-8B 哪个更适合你的企业知识库问答系统。传统做法是分别克隆两个项目的代码仓库,阅读文档,配置不同的依赖项,