【征文计划】玩转 Rokid JSAR:基于 Web 技术栈的 AR 开发环境搭建、核心 API 应用与 3D 时钟等创意项目全流程解析

【征文计划】玩转 Rokid JSAR:基于 Web 技术栈的 AR 开发环境搭建、核心 API 应用与 3D 时钟等创意项目全流程解析

【征文计划】玩转 Rokid JSAR:基于 Web 技术栈的 AR 开发环境搭建、核心 API 应用与 3D 时钟等创意项目全流程解析

在这里插入图片描述

前言

随着 AR 技术在消费级场景的普及,开发者对 “低门槛、高兼容” AR 开发工具需求愈发迫切,传统 AR 开发往往依赖专属引擎或复杂语法,导致 Web 开发者难以快速切入,而 Rokid 推出的 JSAR 技术,恰好打破了这一壁垒:以 “可嵌入空间的 Web 运行时” 为核心,让开发者无需学习新的开发范式,仅用 JavaScript/TypeScript 等熟悉的 Web 技术栈,就能快速开发出支持 3D 物体、2D 界面的空间小程序

本文正是围绕 JSAR 技术展开的实战指南:从最基础的开发环境搭建到核心特性原理解析,再到地球项目、超级马里奥复刻、碰撞检测、动画缓动等场景的实战演练,最终以 “3D 时钟” 为创意案例,深入拆解 JSAR 项目的文件结构、逻辑实现与空间布局关联。无论你是刚接触 AR 开发的 Web 工程师,还是希望拓展技术边界的开发者,都能通过本文掌握 JSAR 开发的核心流程,真正实现 “用 Web 技术玩转 AR 空间应用”。

Rokid JSAR 介绍

在这里插入图片描述
对开发者来说,JSAR 就是个 “技术转换器” 不用学新东西,用熟悉的 JavaScript、TypeScript 这些 Web 技术,就能做能放进特定空间的小程序,还能在场景里划块区域放 3D 模型、2D 界面,写的代码跟在网页里一样能跑,直接把 Web 开发经验套到空间应用上就行可嵌入空间:是指在当前场景中通过定义长宽高划定一块子空间给一个单独的应用程序使用,空间组件可以是一个 3D 物体,也可以是一个 2D 界面,当然也可以是带 GUI 的 3D 物体Web 运行时:代表 JSAR 可以运行基于 Web APIs 实现的 JavaScript / TypeScript 代码,同时也可以运行 WebAssembly

Rokid JSAR 开发环境搭建:基础地球项目开发

开发工具安装
1、VS Code安装插件 JSAR Devtools 和 gITF ToolsJSAR Devtools:辅助 JSAR 项目开发,提供 AR 场景调试、状态查看及性能优化等功能,提升开发效率glTF Tools:处理 glTF/GLB 格式 3D 模型,支持在开发环境中预览和简单编辑,方便模型使用



项目资源准备
2、icon.png准备



3、通过gITF插件预览效果




4、main.xsml JSAR 项目中用于定义界面结构、资源关联和 3D 场景布局的描述文件,连接项目资源与场景元素,搭建起应用的基础框架

本地服务器搭建
5、Web 浏览器运行安装 serve 工具使用 serve 工具启动静态服务器





6、浏览器地址如下显示则表示成功启动服务器



7、JSAR 演示场展示:https://jsar.netlify.app/playground?url=填写本地服务器地址

JSAR 实战项目演练:从基础到创意

交互功能实践:碰撞检测实现



动效设计实践:动画缓动实现



创意开发:3D 时钟项目全解析

在这里插入图片描述
文件路径 / 名称文件角色定位核心功能说明
lib/clock.ts核心逻辑文件封装坐标计算、时间获取、图形绘制函数,通过startClock实现模拟 + 数字时钟绘制
lib/main.ts项目入口文件获取画布、初始化时钟,每秒更新绘制与画布,实现动态走时
package-lock.json依赖配置文件管理@yodaos-jsar/types等依赖及版本,保障开发环境稳定
main.xsml3D 页面配置文件定义画布立方体样式、引入脚本、创建 3D 载体,关联逻辑与空间布局
1、clock.ts 封装了时钟绘制的核心逻辑,通过一系列函数如计算坐标的 x2y2,获取时间的 getTime,绘制圆形、线条、文字的 drawCircledrawLinedrawText 等,最终在 startClock 函数里实现了模拟时钟(含时针、分针、秒针及表盘)与数字时钟的绘制

2、 main.ts 则作为项目入口,获取画布并借助 startClock 初始化时钟绘制,再通过 setInterval 每秒钟调用一次 startClock 并更新画布,从而让时钟实现动态走时效果。

3、package-lock.json 配置 JSAR 3D 时钟项目的依赖树

4、main.xsml 项目页面配置核心,通过样式定义 #canvas 立方体的缩放与旋转,引入 main.ts 脚本,并以 <cube> 为载体,构建出 3D 时钟在空间展示的基础结构,关联样式与核心逻辑

总结

Rokid JSAR 最核心的价值就是帮 Web 开发者 “零门槛” 切入 AR 开发,不用学新引擎、开发流程清晰、项目架构可复用,不管是练手基础功能,还是做 3D 时钟这类创意项目都能高效落地,真正实现 Web 技术和 AR 空间场景互通,如果对这种低门槛 AR 开发感兴趣,不妨前往 Rokid 官网,获取更完整的开发文档、工具资源和场景示例,亲自体验从代码编写到空间应用落地的全流程!

技术门槛低:JSAR 核心是复用 Web 技术,无需学专属 AR 引擎语法,Web 开发者用 JavaScript/TypeScript、Web APIs 即可开发空间应用,且 main.xsml 场景定义、Canvas 纹理绘制等操作熟悉,大幅降低跨领域学习成本

开发流程清晰可复现:地球项目从工具配置、资源准备、服务器搭建到演示场验证,每步有具体操作与反馈,能快速搭环境;后续项目还提供场景模板,减少功能开发试错成本

项目架构可复用:3D 时钟项目的文件拆解逻辑、入口、布局等分离提供通用结构参考,契合模块化思维,可直接复用到其他 JSAR 项目

Read more

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景 VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!! (Github Copilot Chat 中使用OpenAI兼容的自定义模型。) 🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能: “实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。” 🤗 官方解决方案:安装VSCode扩展支持 你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot 通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek

2026传媒行业剧变前夜:Agent将成新入口,AIGC引爆内容“核聚变

2026传媒行业剧变前夜:Agent将成新入口,AIGC引爆内容“核聚变” 当AI不再只是工具,而是接管你的意图、重塑你看到的世界时,传媒互联网的底层逻辑正在被彻底改写。 最近,一份来自信达证券的《传媒行业2026年度策略报告》在圈内引起了不小的震动。报告标题直指核心——“Agent定义入口,AIGC重塑供给”。 这十二个字,精准地描绘了AI从“技术基建期”迈向“应用深水区”后,传媒互联网行业即将迎来的双重剧变。今天,我们就来深度拆解这份报告,看看2026年,我们的数字生活将如何被重新定义。 一、 入口革命:从“点击”到“对话”,Agent正在“架空”App 互联网的每一个代际,都伴随着超级入口的更迭:PC互联网时代是搜索和浏览器,移动互联网时代是超级App。 那么,AI时代的新入口是什么?报告给出了明确的答案:AI Agent(智能体)。 这不仅仅是技术升级,更是人机交互的代际跃迁。我们正从基于过程的GUI(图形用户界面),进化到基于结果的IUI(

DeepSeek-R1-Distill-Llama-8B实操指南:Ollama模型HTTP API鉴权与访问控制配置

DeepSeek-R1-Distill-Llama-8B实操指南:Ollama模型HTTP API鉴权与访问控制配置 1. 模型背景与能力定位 DeepSeek-R1-Distill-Llama-8B 是 DeepSeek 推出的蒸馏系列模型之一,属于轻量级但高性价比的推理增强型文本生成模型。它并非原始大模型,而是基于 DeepSeek-R1(一个在数学、代码和复杂推理任务上表现接近 OpenAI-o1 的强推理模型)进行知识蒸馏后,适配 Llama 架构的产物。 简单来说,它把“老师模型”DeepSeek-R1 的推理能力,浓缩进了一个更小、更快、更容易部署的 8B 参数模型里。相比原始的 DeepSeek-R1-Zero(纯强化学习训练,存在重复、可读性差等问题),R1 版本通过引入冷启动监督数据,显著提升了输出稳定性与语言质量;而 Distill-Llama-8B 则进一步平衡了性能与资源消耗——它不需要 A100/H100 显卡,一台带 16GB 显存的消费级显卡或甚至高端笔记本就能流畅运行。 从公开评测数据看,

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考 背景与测评目标 本文为适配大模型国产化部署需求,以 Llama-2-7b 为对象,在 GitCode Notebook 昇腾 NPU 环境中完成从依赖安装到模型部署的全流程落地,并通过六大维度测评验证:单请求吞吐量稳定 15.6-17.6 tokens / 秒,batch=4 时总吞吐量达 63.33 tokens / 秒,16GB 显存即可支撑高并发,最终提供可复现的部署方案、性能基准数据及硬件选型建议,助力高效落地国产算力大模型应用。 昇腾 NPU :以华为自研达芬奇架构为核心,高效张量计算适配大模型全场景;搭载 CANN 架构简化开发,支持量化与混合并行技术平衡算力与能耗,深度兼容开源生态适配国产化需求 Llama-2-7B 模型:Meta 开源 70