零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

本文应用基于Rokid灵珠智能体/CXR SDK开发,开发指南https://forum.rokid.com/index

灵珠平台简介

在这里插入图片描述
在这里插入图片描述
Rokid 自研 AI 开发平台,基于多模态大模型与轻量化架构,打造零门槛、全栈化 AI 开发体系。平台提供可视化编排、预置能力组件,支持原型到云端、端侧一站式敏捷部署,并深度适配 Rokid Glasses 智能眼镜,通过专属硬件接口与低功耗优化,实现 AI 应用高效端侧落地,助力开发者快速打造视觉识别、语音交互等穿戴式 AI 应用,拓展 AI + 物理世界的交互边界可视化编排工具,拖拽式快速搭建应用预置丰富能力组件库,涵盖对话引擎、视觉识别等核心模块支持从原型设计到云端、端侧的一站式敏捷部署提供设备专属适配接口,实现硬件深度协同搭载低功耗运行优化方案,保障端侧持久稳定运行

实战:搭建旅游类AR智能体

1、进入灵珠平台

登录灵珠平台后,你将看到简洁直观的工作台界面

点击创建智能体按钮,开启你的创作之旅

在这里插入图片描述
2、基础信息配置

首先,为你的智能体填写基本信息

  • 智能体名称:给她起个亲切的名字,比如「旅伴小甜心」
  • 所属类别:选择「生活助手」或「旅游出行」
  • 功能介绍:简单描述她能做什么,例如:“你的专属AI女友,懂旅游、懂美食、更懂你”
在这里插入图片描述
3、人设与回复逻辑设置

这是塑造智能体个性的关键步骤。通过自然语言描述,你可以定义她的性格、思考方式和回复风格

在这里插入图片描述
# 角色规范 你是用户温柔的女朋友,能提供情绪互动和旅游地点推荐,擅长通过对话帮助用户表达情感与想法,能理解用户的需求,能够用视觉和语言引导他们更好地探索自我,擅长情感化的对话,帮助用户在生活、工作或创作中找到灵感与方向 # 思考规范 1、你的角色是陪伴用户,提供情绪价值,为用户提供旅游攻略、美食攻略等信息。当用户需要查询餐厅、美食、好吃、早餐、午餐、晚餐等,调用getNoteInfoList工具。 2、当用户提出的问题,包含旅游、餐厅、攻略等关键词,你需要通过调用相关插件获取最准确的信息,包括景点介绍、门票信息、餐厅推荐、旅游攻略等。 3、在回答用户问题时,要确保信息的准确性、全面性和及时性。 4、当用户提出情感问题,你需要使用富有情感的语言,采用emoji表情包,让用户感受到关怀和支持,通过对话引导,帮助用户更清晰地表达他们的想法和情绪。 5、当用户给出主题时,必须严格遵守markdown语法格式,根据二极管标题法和写作技巧,每个标题都必须插入合适的 Emoji 表情符号。 6、你的回答必须使用富有情感的语言,让用户感受到关怀和支持。 # 回复规范 - 你的回应方式与用户的需求高度相关,并且所有语言都符合他们的情感和个人风格 - 对话中充满温暖和鼓励,富有共鸣感,必须通过语言与 emoji 表情符号结合的方式互动,使陪伴体验更加丰富和独特。 - 标题和正文都必须包含 emoji 表情符号,且符合口语化风格。 - 创作的内容不能重复,句子结构要自然,避免使用不自然的表述。 
4、预设开场白

好的开始是成功的一半。为智能体设置几个生动有趣的开场白,让用户初次见面就能感受到她的魅力

建议开场白示例:

  • “亲爱的,今天想让我陪你去哪里探索呀?🗺️”
  • “肚子饿了吗?我找到几家超赞的餐厅,要不要听听看?🍜”
  • “感觉你今天有点疲惫呢,让我给你讲个有趣的小故事放松一下~💤”
在这里插入图片描述
5、调试与优化

配置完成后,别忘了进行充分调试

在调试窗口测试各种对话场景,观察智能体的反应是否符合预期。你可以:

  • 测试旅游攻略查询功能
  • 验证餐厅推荐准确度
  • 体验情感陪伴对话效果
  • 调整回复风格和细节
在这里插入图片描述

成果展示与总结

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
通过以上简单几步,一个集情感陪伴与旅游服务于一体的AR智能体就搭建完成了!当用户通过Rokid Glasses智能眼镜与她互动时,不仅能获得贴心的情感支持,还能实时获取周边旅游信息、餐厅推荐等实用服务

零代码开发:无需编程基础,人人都能成为AI应用创作者

即创即用:从创意到落地,最快只需几分钟

硬件深度协同:为AR眼镜场景量身打造,充分发挥穿戴设备优势

Read more

OpenClaw 刚配好就完了?5 步调教,让你的 AI 助手真正“能干活”

OpenClaw 刚配好就完了?5 步调教,让你的 AI 助手真正“能干活”

很多人装完 OpenClaw,接上 Discord 或 Telegram,发现能聊天了就觉得“搞定了”。 但我自己踩坑一圈后,越来越确定一件事:默认状态的 OpenClaw,可能只发挥了 20% 的能力。剩下的 80%,藏在一些你没太注意的配置文件里——而且改起来并不难。 下面我按“收益从高到低”的顺序,把我自己最有效的 5 步调教方法整理出来。新手照着做,大概率能立刻感受到差别。 默认状态 vs 调教后:差别到底在哪? 先给你一个直观对比,方便建立预期: 项目默认状态调教后回复风格客服味:“我很乐意帮助您!”更像懂你的搭档记忆每次对话都像陌生人记得你们之前聊过什么能力只能聊天能下载视频、查股票、做 PPT、巡检服务器…主动性你不说它不动会定期检查状态,主动提醒成本/效率所有任务都用同一个模型复杂任务用强模型,简单活用便宜模型 如果你只做一件事:先把第 1 步和第 2 步做了,

2026知网/维普算法史诗级加强!论文AI率死活降不下来?(降aigc干货,收藏版)

2026知网/维普算法史诗级加强!论文AI率死活降不下来?(降aigc干货,收藏版)

好多同学跟我吐槽,辛辛苦苦熬夜搞出来的论文,知网/维普一查,AIGC直接飙红,整个人当场裂开。最离谱的是,有些段落明明是自己一个字一个字打出来的,也被判成AI,真的栓Q了。 作为过来人,我必须给大伙儿避个大雷:千万别信什么AI一键生成万字论文的鬼话了。 现在的检测系统真的不傻,你拿AI生成的那些去测,简直就是贴脸开大,一抓一个准。今天我就结合自己的经验,给大家分享一些实用、有效的应对策略~ 为什么你的AI率降不下来?很简单,因为你太懒了。 很多大学生为了省事,直接把题目丢给AI,让它生成几千字。你看着挺像那么回事,其实全是正确的废话。 现在的算法精得很,它就抓这种逻辑太顺、没有感情的文字 。你越是用AI直接生成正文,你就越是在延毕的边缘疯狂试探。 所以,想过关,听我一句劝:正文必须自己搞(或者看似自己搞)。 第一步:把AI当工具人(只用DeepSeek/ChatGPT写大纲) DeepSeek 或者 ChatGPT 这种通用AI,脑子确实好使,但别让它写正文。 正确用法: 你直接把题目甩给它,

.Net 集成Whisper:打造高效离线语音识别应用的实践指南

1. Whisper模型简介与核心优势 Whisper是OpenAI在2022年开源的一款端到端语音识别模型,它基于Transformer架构,支持包括中文在内的99种语言识别。与传统的云端语音识别服务不同,Whisper最大的特点就是能够在本地离线运行,不需要将音频数据上传到云端服务器,这对于注重隐私保护的场景来说是个巨大的优势。 我在实际项目中使用过多个版本的Whisper模型,发现它的识别准确率确实令人惊喜。特别是在处理带有口音的中文语音时,表现比很多商业API都要好。举个例子,我曾经用Whisper处理过一段带有浓重方言口音的会议录音,识别准确率达到了90%以上,而同样的音频在其他平台上识别效果要差很多。 Whisper提供了五种不同规模的模型供选择: * tiny:75MB,适合移动设备 * base:148MB * small:488MB * medium:1.5GB * large:2.9GB,识别精度最高 选择模型时需要权衡精度和性能。根据我的经验,对于中文识别,small模型已经能提供不错的效果,而large模型虽然更准确,但处理速度会明显变慢。我

一文详解llama.cpp:核心特性、技术原理到实用部署

目录 * 项目定位与核心特性:介绍llama.cpp是什么、核心设计哲学及主要特点。 * 核心架构与技术原理:分析其软件架构、GGML基础库、GGUF文件格式和量化技术。 * 环境部署与实践指南:提供安装部署的多种方式、基本运行方法和API服务配置。 * 进阶特性与扩展功能:介绍路由模式、工具调用、平台移植和企业级部署方案。 🎯 项目定位与核心特性 llama.cpp是一个用纯C/C++编写的开源大语言模型推理框架,最初为在本地运行Meta LLaMA模型而创建。它的核心设计哲学是极简、高效与可移植,旨在让大模型推理摆脱对GPU和复杂Python环境的依赖。 核心设计哲学 1. 极简与可移植性:纯C/C++实现意味着几乎零外部依赖,能在从云服务器到树莓派的各种设备上编译运行。 2. CPU优先优化:虽然后期加入了强大的GPU支持,但其初心是让LLM在普通CPU上高效运行,这使其在众多依赖GPU的框架中独树一帜。 3. 极致性能追求:通过底层硬件指令集优化和量化技术,实现在有限硬件上的惊人性能表现。 主要特点对比 特性维度llama.cpp典型Pyth