用 AI 做鸿蒙游戏 NPC,是一种什么体验?

用 AI 做鸿蒙游戏 NPC,是一种什么体验?
在这里插入图片描述

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名)

大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。

我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案,
在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。

技术方向:前端 / 跨端 / 小程序 / 移动端工程化
内容平台:掘金、知乎、ZEEKLOG、简书
创作特点:实战导向、源码拆解、少空谈多落地
文章状态:长期稳定更新,大量原创输出

我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、真实项目中如何取舍,希望能帮你在实际工作中少走弯路。

子玥酱 · 前端成长记录官 ✨
👋 如果你正在做前端,或准备长期走前端这条路
📚 关注我,第一时间获取前端行业趋势与实践总结
🎁 可领取 11 类前端进阶学习资源(工程化 / 框架 / 跨端 / 面试 / 架构)
💡 一起把技术学“明白”,也用“到位”

持续写作,持续进阶。
愿我们都能在代码和生活里,走得更稳一点 🌱

文章目录

引言

如果你做过游戏开发,一定写过 NPC。而且大概率是这样写的:

if(playerNear){attack()}else{patrol()}

简单、直接、可控。但也有一个明显问题:

NPC 永远是“写死的”

而当你把 AI 引入到 HarmonyOS 游戏里,事情会发生变化:

const action = npcAgent.decide(state)

这时候你会发现:

你不再是在“写 NPC”,而是在“创造一个角色”

一、从“脚本 NPC”到“智能 NPC”

先看最核心的变化。

传统 NPC

if(hp <30){runAway()}else{attack()}

特点:

  • 可预测
  • 可控制
  • 可调试

AI NPC

const action = agent.decide({ hp, enemyDistance, history })

特点:

  • 不完全可预测
  • 有“行为风格”
  • 会“变化”

本质变化:

NPC 从“规则集合”,变成“决策系统”

二、第一感受:NPC“活”了

这是最直观的体验。

传统 NPC

玩家靠近 → 攻击 玩家远离 → 停止 

AI NPC

可能会:

  • 先观察你
  • 选择绕后
  • 假装撤退再反击

开发者的第一反应通常是:

“这行为我没写过啊?”

没错—— 这正是 AI 的价值

三、第二感受:你开始“调性格”,而不是“写逻辑”

传统开发:

if(...)doSomething()

AI 开发:

prompt =` 你是一个谨慎的敌人, 优先保命,其次攻击 `

你在做的事情变成:

设计行为风格(Personality) 

示例

npcAgent.setProfile({ style:"aggressive", riskTolerance:0.8})

本质变化:

代码 → 行为设计

四、第三感受:调试方式完全变了

传统调试:

  • 打断点
  • 看变量
  • 查逻辑

AI 调试:

  • 看输入
  • 看输出
  • 调 prompt

示例

console.log("state:", state)console.log("action:", action)

你会发现:

Bug 不再是“代码错了”,而是“AI 理解错了”

五、第四感受:不确定性

AI NPC 最大的特点: 不可完全预测

好处

  • 更真实
  • 更有趣
  • 更耐玩

坏处

  • 难调试
  • 难复现
  • 可能“失控”

示例

// 有时候 NPC 突然不攻击

你会想:

“是 bug 吗?”

其实可能是:

AI 决策的结果

六、鸿蒙上的独特体验

在 HarmonyOS 上,AI NPC 还有一些独特优势。

1、端侧 AI

const action = localModel.infer(state)

优点:

  • 实时决策
  • 无网络依赖

2、多设备感知

AI 可以感知:

手机输入 TV 状态 传感器数据 

示例

agent.decide({ playerInput, deviceContext, environment })

NPC 变成:

“全场景感知角色”

3、分布式协同

多个 NPC 可以协作:

teamAgent.decide(teamState)

形成: AI 队伍

七、一个完整 AI NPC 示例

我们做一个简单 Demo:

1、NPC Agent

classNPCAgent{asyncdecide(state){if(state.hp <20){return"escape"}if(state.enemyDistance <50){return"attack"}return"patrol"}}

这是“规则 + AI”的过渡版本。

2、接入页面

const action = npcAgent.decide({ hp:this.hp, enemyDistance:this.distance })this.execute(action)

3、执行行为

execute(action:string){switch(action){case"attack":this.attack()breakcase"escape":this.runAway()break}}

这就是最小 AI NPC 架构:

State → Agent → Action → Execute 

八、进阶:接入大模型

如果你接入大模型(LLM),NPC 会更“人性化”。

示例

asyncdecide(state){const prompt =` 当前血量 ${state.hp} 敌人距离 ${state.enemyDistance} 你会怎么做? `returnawait llm.generate(prompt)}

效果:

  • 会说话
  • 会表达情绪
  • 会“演戏”

九、开发建议

1、不要一开始就用大模型

先用:

规则 → 简单 AI → LLM 

2、加“安全边界”

if(!validAction(action)){ action ="idle"}

3、记录行为日志

log.push({ state, action })

4、限制决策频率

setInterval(()=>{ agent.decide()},500)

十、最大的变化

传统 NPC :你写“它做什么”
AI NPC: 你定义“它是什么样的人”

总结

在 HarmonyOS 上,用 AI 做 NPC,本质是一次角色设计方式的升级。

可以总结为四个变化:

1、逻辑变了

if/else → AI 决策 

2、开发方式变了

写代码 → 设计行为 

3、调试方式变了

查 bug → 调 AI 

4、体验变了

NPC → 角色 

最后给你一个很有意思的结论:

当 NPC 不再是“写出来的”,而是“表现出来的”,游戏世界就开始变得真实。

而这,可能才是 AI 游戏真正的开始。

Read more

FPGA小白学习日志二:利用LED实现2选1多路选择器

在上一篇文章中,主播利用炒菜的比喻帮大家介绍了LED工程的建立,所以在读这一篇文章前,大家可以简要回顾以下LED工程的建立流程。本篇内容,主播主要向大家介绍数据选择器工程的实现方法。   在开始之前,我们先来了解一下数据选择器是什么:所谓数据选择器,就是从多个输入的逻辑信号中选择一个逻辑信号输出,实现数据选择功能的逻辑电路就是数据选择器。我们用来打个比方,现在我们手中有两张电影票A和B,但这时我们是不知道到底哪张电影票是允许我们进入电影院的,这时候我们就要去问检票员,检票员说A,那就可以进;否则,B就可以进。通过这个比喻,我们就能理解数据选择器的大体思路了:这里的电影票A与B就相当于输入信号in1与in2,检票员就相当于数据选择信号sel(英文select),电影院就相当于输出信号out,注意这里的输出信号out只有一个。因此,我们就可以在Visio中设计出2-1数据选择器:                               同样,我们给出2-1数据选择器的真值表:                我们来分析以下这个真值表:当选择信号sel为0时,对应输入信号in

目标检测数据集——无人机视觉VisDrone数据集

目标检测数据集——无人机视觉VisDrone数据集

随着无人机技术的飞速发展,无人机在航拍、监控、农业、物流等领域的应用日益广泛。与此同时,无人机视角下的视觉任务,如目标检测、目标跟踪和场景理解,也成为了计算机视觉研究的热点。然而,相比传统的地面视角数据集,无人机视角下的图像具有高度变化、小目标密集、复杂背景等独特挑战,这对现有算法提出了更高的要求。 为了应对这些挑战并推动无人机视觉技术的发展,天津大学机器学习与数据挖掘实验室推出了 VisDrone数据集。作为一个大规模、标注精细的无人机视觉数据集,VisDrone 不仅涵盖了丰富的场景和多样化的目标类别,还为研究人员提供了一个极具挑战性的测试平台。无论是小目标检测的精度提升,还是密集场景下的鲁棒性优化,VisDrone 都成为了学术界和工业界不可或缺的资源。该数据集采集自中国14个不同城市,覆盖复杂城市场景、交通枢纽、密集人群等多种环境。 VisDrone官方Github下载渠道可点击访问: https://github.com/VisDrone/VisDrone-Dataset?tab=readme-ov-file 下载的数据集为VisDrone2019-DET-train

Stable Diffusion 秋叶大神2025最新整合一键安装包

Stable Diffusion 秋叶大神2025最新整合一键安装包

这段时间我在折腾 Stable Diffusion,期间试过很多安装方式。有手动安装的,也有别人做好的整合包。手动安装的方式对环境要求高,步骤也多,系统要装 Python,要装依赖,还要配好运行库,哪一步出错都要重新查资料,挺消耗时间。后来了解到秋叶大神做的整合一键安装包,这个版本省掉了很多折腾,对新手比较友好。 我自己把安装流程整理了一遍,又结合网上的信息,把一些需要注意的地方写下来,希望能帮到想尝试 Stable Diffusion 的人。 这里完整下载链接 秋叶整合包是什么 这个整合包属于别人已经帮你配好的版本,里面把 Stable Diffusion WebUI、模型管理、插件、运行环境都准备好了。下载之后按照提示解压,点一下启动脚本就能跑起来,不需要另外去折腾环境。 整合包里放的 WebUI 是常见的 AUTOMATIC1111 版本,所以大部分教程都能直接用。适合想直接出图、想先体验一下模型效果的人。 系统环境方面 我现在用的是 Windows 电脑,所以下面写的内容主要基于

win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

1 按照第一集的部署完成后,我们就开始考虑给小龙虾增加telegram机器人和搜索网站能力,实现效果如下: 2 telegram机器人能力部署 C:\Users\Administrator.openclaw的配置文件openclaw.json 增加一段内容 "channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"你的telegram机器人的token", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"