75元!复刻Moji 2.0 小智 AI 桌面机器人,基于乐鑫ESP32开发板,内置DeepSeek、Qwen大模型

文末联系小编,获取项目源码

Moji 2.0 是一个栖息在你桌面上的“有灵魂的伴侣”,采用乐鑫 ESP32-C5开发板,配置 1.5寸 360x360 高清屏,FPC 插接方式,支持 5G Wi-Fi 6 极速连接,内置小智 AI 2.0 系统,主要充当智能电子宠物的角色,在你工作学习枯燥时,通过圆形屏幕上的动态表情包卖萌解压,提供情绪陪伴;同时它也是功能强大的AI 语音助手,支持像真人一样流畅的连续对话,随时为你查询天气、解答疑惑或闲聊解闷,非常适合作为极客桌搭或嵌入式学习的开源平台。

🛠️ 装配进化

告别手焊屏幕的噩梦。全新设计的 FPC 插座连接,排线一插即锁,将复刻门槛降至最低。

🚀 性能进化

主控升级为 ESP32-C5。支持 5GHz Wi-Fi 6,在复杂的智能家居网络中,语音交互响应快如闪电。

👁️ 视觉进化

屏幕尺寸跃升至 1.5寸 (360x360)。配合 QSPI 协议 驱动,动画丝滑流畅,彻底告别撕裂与拖影。

🔈 听感进化

重构音频电路,采用 ES8311 全差分链路。有效抵消射频干扰,背景底噪深邃宁静。

🔋 能源进化

内置 500mAh 电池,搭配 DC-DC 高效电源与无线充电预留接口,随手一放即可回血。

🤖 小智AI 2.0

完美适配最新固件。支持全双工语音对话、打断唤醒,响应速度质的飞跃。

😀 自定义表情

得益于大内存和 QSPI 屏,支持自定义图片/GIF 表情。根据对话情绪(开心/生气)自动切换。

🤖 技术架构

Moji 2.0 小智AI机器人项目构建起从硬件接入、智能体构建到生态联动的一站式开发流程,它不仅是智能工具,更是一个真正“懂你”的AI助理。无论是在解决问题还是分享快乐,小智AI聊天机器人都以独特的智慧和温柔的方式,使科技更加有温度,生活更美好。ESP32智能AI套件为开发者提供了一条高效、开放、具备可复制性的落地路径。

图片
  • 通信协议 基于 xiaozhi-esp32 协议,通过 WebSocket 实现数据交互。
  • 对话交互 支持唤醒对话、手动对话及实时打断。长时间无对话时自动休眠
  • 多语言识别 支持国语、粤语、英语、日语、韩语(默认使用 FunASR)。
  • LLM 模块 支持灵活切换 LLM 模块,可选阿里通义Qwen、DeepSeek、OpenAI 等

主控芯片:ESP32-C5(双频 Wi - Fi 6+ RISC - V )

屏幕规格:1.5寸 IPS 高清圆屏(360x360分辨率)

驱动接口:高速 QSPI 协议

音频方案:ES8311解码+全差分走线

电源系统:500mAh电池+ DC / DC 稳压

软件生态:适配小智 AI 2.0

Moji 2.0 核心功能

  • 离线语音唤醒:通过 ESP-SR 实现。
  • 流式语音对话:支持 WebSocket 和 UDP 协议。
  • 声纹识别:识别说话者身份。
  • 短期记忆:对每轮对话进行总结。
  • 自定义角色:支持提示词和音色设置。
  • LCD 显示屏:显示emoji及对话内容。
  • 大模型:可接入DeepSeek、OpenAI 、Qwen等
  • 联网能力:支持 Wi-Fi 和 4G 双网络接入

🛠️ 硬件组装

图片

芯片焊接:音频芯片 ES8311 为 QFN 封装,必须使用热风qiang或加热台,仅靠电烙铁无法完成。

焊接顺序:强烈建议先验证喇叭有声音之后,最后再焊接麦克风,避免麦克风损坏导致排查困难。

麦克风温控:麦克风极度怕热,风qiang温度需 ≤300°C 且吹焊时间小于 10 秒。

洗板水禁忌:清理焊盘时,严禁洗板水/酒精渗入麦克风拾音孔,否则会导致麦克风永久失效。

PCB 厚度:下单打板时请务必选择 1.6mm,否则 Type-C 接口高度不匹配外壳。

屏幕安装:安装排线时,先确认排线方向然后对准插座,缓慢插入排线。切勿暴力硬插。

固件烧录:建议使用 ESP Flash Download Tool,地址设为 0x00000。需按住 Boot 键插入 USB 进入烧录模式。

🚀 物料清单

🎯 原理图和PCB板

🌳 写在最后

Moji智能AI助手可以搭载多种开源AI大模型( DeepSeek、OpenAI 、通义千问),通过对话角色自定义、海量知识库、长期记忆、语音声纹识别等功能,成为了一个真正“懂你”的AI助理。无论是在解决问题还是分享快乐,Moji 都以独特的智慧和温柔的方式,使科技更加有温度,生活更美好。

ESP32 智能AI项目源码:

https://github.com/78/xiaozhi-esp32

Moji 智能AI助手 3D建模资料获取:

https://makerworld.com.cn/zh/@MoveCall

Moji 智能AI助手项目资料获取:

https://oshwhub.com/movecall/moji2


如有IoT 源码采购和项目交付需求,商务合作,企业产品推广,请扫码联系小编,微信号: beacon0418

往期推荐

开箱即用!国产开源30+AI视觉算法IoT智能物联网云平台

国产开源Web 工业IoT组态软件,支持Modbus、OPC,支持拖拉拽

源码交付,7天完成国产信创部署智慧工地方案

4万元,国产信创私有化部署,破解县域无人机AI巡检平台落地难题

上班摸鱼, 智能 AI 监控老板行踪

免费开源,千知AI知识图谱平台,支持DeepSeek、Qwen

信创部署,源码交付!县域低空经济无人机 AI 巡检平台

智慧农业大爆发:AI+物联网+区块链重构“天空地”一体化监测

免责声明:本公众号所发布的内容来源于互联网,我们会尊重并维护原作者的权益。由于信息来源众多,若文章内容出现版权问题,或文中使用的图片、资料、下载链接等,如涉及侵权,请告知我们,我们将尽快处理。主理人微信: beacon0418

Read more

Ubuntu/Debian VPS 上 Apache Web 服务器的完整配置教程

Apache 是互联网上最流行的 Web 服务器之一,用于托管超过半数活跃网站。尽管市面上存在许多可用的 Web 服务器,但由于 Apache 的普遍性,了解其工作原理仍然具有重要意义。 本文将分享 Apache 的通用配置文件及其可配置选项。文中将以 Ubuntu/Debian 系统的 Apache 文件布局为例进行说明,这种布局方式与其他 Linux 发行版的配置层级结构有所不同。 版本兼容性 说明 :本教程已在 Ubuntu 22.04 LTS、Ubuntu 24.04 LTS、Ubuntu 25.04 以及 Debian 11、Debian 12 系统上通过验证测试。所有展示的命令和配置均兼容上述版本,且 Apache 配置结构与命令(如 a2ensite、

前端存储三剑客:localStorage、sessionStorage、cookie 超详细对比

前端存储三剑客:localStorage、sessionStorage、cookie 超详细对比

在前端开发中,数据本地存储是提升用户体验、优化性能、实现持久化状态的核心技术。我们最常用的就是 localStorage、sessionStorage 和 cookie 这三种方案,但很多开发者容易混淆它们的用法、存储特性和适用场景。 这篇博客就用最清晰、最实用的方式,一次性讲透三者的区别、用法和最佳实践。 一、先搞懂核心概念 * cookie:最早的客户端存储方案,会随 HTTP 请求自动发送到服务器,主要用于身份验证、会话保持。 * localStorage:HTML5 新增的本地存储,持久化存储,手动清除才会消失,不参与网络请求。 * sessionStorage:HTML5 新增的会话存储,页面会话期间有效,关闭标签页 / 浏览器就清空。 二、核心区别一张表看懂 表格 特性localStoragesessionStoragecookie生命周期永久有效,手动清除仅当前会话(关闭标签 / 浏览器失效)可设置过期时间,默认会话级存储容量约 5MB约 5MB很小,仅 4KB与服务端通信不参与不参与自动携带在

我用 Vibe Code 做出了漂亮的 Web 应用,但 AI 依然无法为 Google Search 自动生成一个简单的 Sitemap

我用 Vibe Code 做出了漂亮的 Web 应用,但 AI 依然无法为 Google Search 自动生成一个简单的 Sitemap 在最近一段时间里,我看到很多开发者和创业者开始用 AI 工具做网站、Web 应用这些东西,比如所谓的 vibe coding 平台:快速生成页面、美观的前端、自动部署等等。乍一看体验很棒,但当你开始关注 SEO 和搜索引擎索引时,这一切就变得很不那么简单了。 我自己做过很多网站的 SEO,这本应该是个“十分钟搞定”的事儿 —— “生成 sitemap.xml,提交到 Google Search Console,搞定。” 但是在实际操作中,问题远比想象复杂。 项目背景 我做的第一个项目是一个在线餐厅目录:收集了所有提供食物过敏菜单的餐厅信息,供过敏患者快速查询。

Qwen3-1.7B支持流式响应?实战验证与前端集成教程

Qwen3-1.7B支持流式响应?实战验证与前端集成教程 最近在折腾大模型应用开发,特别是想给前端加个实时聊天的效果,就一直在找支持流式输出的轻量级模型。Qwen3系列开源后,我第一时间注意到了1.7B这个版本——参数小,部署快,但官方文档里关于流式响应的说明不太详细。 所以,我决定自己动手验证一下:Qwen3-1.7B到底支不支持流式响应?如果支持,怎么在前端项目里用起来?这篇文章就是我的实战记录,从环境搭建、接口测试到前端集成,一步步带你走通整个流程。 1. 环境准备与快速启动 要在本地或者云端快速体验Qwen3-1.7B,最省事的方法就是直接用现成的Docker镜像。这里我以ZEEKLOG星图平台的镜像为例,带你快速启动一个可用的环境。 1.1 启动Jupyter Notebook环境 1. 找到Qwen3-1.7B的镜像并启动。平台通常会提供一个预装好所有依赖的容器。 2. 容器启动后,直接打开提供的Jupyter Notebook链接。你会看到一个熟悉的网页界面,里面已经配置好了Python环境和必要的库。 这样,我们就不用操心安装PyTorch、Tran