鸿蒙 AI App 的技术架构解析

鸿蒙 AI App 的技术架构解析
在这里插入图片描述

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名)

大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。

我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案,
在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。

技术方向:前端 / 跨端 / 小程序 / 移动端工程化
内容平台:掘金、知乎、ZEEKLOG、简书
创作特点:实战导向、源码拆解、少空谈多落地
文章状态:长期稳定更新,大量原创输出

我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、真实项目中如何取舍,希望能帮你在实际工作中少走弯路。

子玥酱 · 前端成长记录官 ✨
👋 如果你正在做前端,或准备长期走前端这条路
📚 关注我,第一时间获取前端行业趋势与实践总结
🎁 可领取 11 类前端进阶学习资源(工程化 / 框架 / 跨端 / 面试 / 架构)
💡 一起把技术学“明白”,也用“到位”

持续写作,持续进阶。
愿我们都能在代码和生活里,走得更稳一点 🌱

文章目录

引言

随着大模型能力逐渐普及,越来越多应用开始接入 AI 功能。
但很多开发者在真正做 AI 应用时,很快会遇到一个问题:

传统 App 架构,并不适合 AI 应用。

过去我们设计 App,通常围绕 页面 + 业务逻辑展开。但 AI 应用的核心不再只是页面,而是:

AI 能力 任务理解 服务调用 

这意味着应用架构需要发生变化。

一、传统 App 架构是什么样

大多数鸿蒙应用的架构类似这样:

Page ↓ Service ↓ Repository ↓ Network 

职责很清晰:

Page UI 展示 Service 业务逻辑 Repository 数据管理 Network 网络请求 

例如:

用户点击按钮 ↓ 页面调用 Service ↓ Service 调用 API ↓ 返回数据展示 

这种架构适合 功能型应用,但 AI 应用的逻辑完全不同。

二、AI App 的核心流程

AI 应用通常是这样工作的:

用户输入 ↓ AI 理解意图 ↓ 任务规划 ↓ 调用服务 ↓ 返回结果 

例如,用户输入:

帮我推荐附近好吃的餐厅 

系统流程可能是:

AI → 意图识别 AI → 解析位置 AI → 调用餐厅服务 AI → 返回推荐 

这里 AI 其实成为 系统核心入口

三、AI App 的核心模块

一个完整的 AI 应用通常包含几个核心模块:

AI Layer Service Layer Data Layer UI Layer 

结构示意:

用户输入 ↓ AI Layer ↓ Service Layer ↓ Data Layer ↓ UI 展示 

AI 层变成整个系统的 控制中心

四、AI Layer(AI 层)

AI 层负责:

意图识别 任务规划 工具调用 

典型模块包括:

Intent Parser Task Planner Tool Manager Prompt Manager 

结构示例:

ai ├─ ai_service ├─ intent_parser ├─ task_planner └─ prompt_manager 

示例代码:

exportclassAIService{asyncchat(message:string){const intent =awaitthis.parseIntent(message)returnawaitthis.executeTask(intent)}}

AI 层会决定 调用哪个服务

五、Service Layer(服务层)

Service 层负责具体业务能力,例如:

用户服务 订单服务 搜索服务 推荐服务 

结构:

services ├─ UserService ├─ SearchService └─ OrderService 

示例:

exportclassSearchService{asyncsearchRestaurant(keyword:string){returnawait ApiClient.get("/restaurant/search")}}

AI 通过 Service 调用业务能力。

六、Tool Layer(工具层)

在 AI 应用中,经常会设计 Tool(工具)系统,Tool 的作用是:

把应用能力暴露给 AI 

例如:

搜索餐厅 查询天气 预订酒店 

结构:

tools ├─ SearchRestaurantTool ├─ WeatherTool └─ BookingTool 

示例:

exportclassWeatherTool{asyncexecute(city:string){returnawait WeatherService.getWeather(city)}}

AI 可以通过工具调用服务。

七、数据层

数据层负责:

网络请求 缓存 数据库 

结构:

repository ├─ UserRepository └─ ContentRepository 

示例:

exportclassUserRepository{asyncfetchUserInfo(){returnawait HttpClient.get("/user")}}

八、UI 层

AI 应用的 UI 通常更简单,UI 主要负责:

输入 展示结果 确认操作 

例如:

@Entry@Component struct ChatPage {@State message:string=""@State reply:string="" aiService: AIService =newAIService()asyncsend(){this.reply =awaitthis.aiService.chat(this.message)}}

UI 只是一个 交互入口

九、完整架构示意

一个比较完整的鸿蒙 AI App 架构可能是:

entry ├─ pages │ ├─ components │ ├─ ai │ ├─ ai_service │ ├─ intent_parser │ ├─ task_planner │ └─ prompt_manager │ ├─ tools │ ├─ services │ ├─ repository │ ├─ models │ └─ utils 

数据流:

用户输入 ↓ AI Service ↓ Intent Parser ↓ Task Planner ↓ Tool / Service ↓ 返回结果 

十、AI 应用架构的关键设计原则

设计 AI 应用架构时,有几个关键原则。

1、AI 作为入口

传统应用:

UI → Service 

AI 应用:

AI → Service 

2、服务能力模块化

每个能力都应该是一个 独立 Service,例如:

SearchService PaymentService WeatherService 

3、工具化能力

AI 通过 Tool 调用系统能力

Tool → Service 

总结

随着 AI 技术的发展,应用架构正在发生变化,传统 App:

UI → Service → Network 

AI App:

User Input ↓ AI Layer ↓ Tool / Service ↓ Data Layer 

也就是说:

AI 不再只是功能,而是应用架构的核心。

对于鸿蒙应用来说,未来 AI 很可能成为:

系统能力 应用入口 任务执行者 

这意味着:鸿蒙 AI App 的架构,正在从 页面驱动逐渐转向 智能驱动

Read more

Python + AI:打造你的智能害虫识别助手

Python + AI:打造你的智能害虫识别助手

Python + AI:打造你的智能害虫识别助手 在农业生产中,病虫害是影响作物产量和品质的“隐形杀手”。传统的害虫识别依赖人工巡查,不仅耗时耗力,还容易因经验不足导致误判、漏判。而随着智慧农业的普及,AI技术正成为破解这一难题的关键——今天,我们就用Python从零搭建一个智能害虫识别助手,让电脑替你“火眼金睛”辨害虫,轻松搞定农作物病虫害预警! 一、为什么要做这个项目? 智慧农业的核心是“精准、高效、低成本”,而害虫识别正是其中的典型场景: * 对农户:无需专业植保知识,拍照就能识别害虫种类,快速匹配防治方案; * 对开发者:这是一个“小而美”的实战项目,覆盖AI开发全流程,从数据处理到模型部署,学完就能落地; * 技术价值:融合Python、深度学习、Web部署,是入门AI+垂直领域应用的绝佳案例。 这个项目不需要你有深厚的AI功底,只要掌握Python基础,跟着步骤走,就能做出一个能实际使用的智能识别工具。 二、项目核心技术栈 先明确我们要用到的工具,都是行业主流、

2026 最强开源 AI 智能体:OpenClaw,为什么全网都叫它 AI 龙虾?

一、OpenClaw 到底是什么? 一句话:能在你电脑上自动干活的开源 AI 智能体(本地运行、不上云、隐私安全) 它能做: 1、用自然语言让 AI 操作电脑、打开软件、点鼠标、敲键盘 2、自动写代码、跑脚本、处理 Excel、发邮件、爬网页 3、连接本地大模型(Ollama、DeepSeek、通义千问、文心一言) 4、支持 3000+ 技能插件(办公、开发、数据分析、自动化) 5、完全本地部署 ,你的数据不会上传到任何公司服务器 二、为什么网友叫它“AI 龙虾” 因为 Claw = 爪子 、龙虾螯

【前沿解析】2026年3月29日:AI推理效率双重突破——谷歌TurboQuant内存压缩与RWKV-6开源重构大模型部署范式

当百万级上下文成为AI应用标配,当边缘设备渴求智能部署,内存墙与算力瓶颈正成为制约AI规模化落地的最后枷锁。2026年3月29日,两大技术突破同步到来:谷歌研究院发布TurboQuant算法,将KV缓存内存占用压缩6倍、速度提升8倍;RWKV开源基金会宣布RWKV-6 1.6B模型正式开源,线性复杂度架构打破Transformer二次方魔咒。这不仅是技术的双重突破,更是AI从实验室走向产业、从云端下沉到终端的范式革命。 引言:效率革命的双引擎——内存压缩与架构创新 2026年3月,AI行业迎来了标志性的效率拐点。在算力增长曲线趋缓、摩尔定律失效的背景下,通过算法优化提升现有硬件效能成为唯一可行路径。谷歌TurboQuant与RWKV-6开源,恰如效率革命的双引擎,从两个维度同时突破传统瓶颈: * TurboQuant:针对大模型推理最核心的内存瓶颈——KV缓存,通过PolarQuant坐标变换与QJL误差校正,实现3-bit量化下的零精度损失,实测内存占用降低83%、注意力计算速度提升8倍 * RWKV-6:基于线性复杂度的时间序列混合架构,在保持强大序列建模能

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

最近在做一个企业办公 Agent 项目,过程中花了不少时间研究 Agent 的推理架构该怎么选。市面上最主流的两种模式——ReAct 和 Plan-and-Execute——看起来都能用,但深入了解后我发现它们的设计哲学完全不同,适用场景也差异很大。 一、先说一个最基本的问题:Agent 为什么需要"推理"? LLM 本身就能回答问题,为什么还要给它加推理框架? 因为 LLM 只会"说",不会"做"。当用户说"帮我创建一个明天截止的任务",LLM 可以生成一段漂亮的文字描述应该怎么做,但它没有手去操作数据库。Tool(或者叫 Skill)就是给 LLM 装上了手脚——它可以调用接口、查询数据、执行操作。 但问题来了: