技术分享:@AR 眼镜|移动端应用软件概述

技术分享:@AR 眼镜|移动端应用软件概述


        各位现场以及线上的同学们,晚上好~

        1、按照国际惯例,先简单做个自我介绍,我是移动端应用组的Swuagg,从事Android研发近10年,ZEEKLOG博客专家,提交专利局审核的专利数量30+;

         2、今天的分享,希望尽量用浅显易懂的语言去讲解,也欢迎大家在分享过程中打断我进行探讨;

        3、话不多说,接下来看看我们今天主要交流的3个点。

移动端应用是什么?

         首先,简单和大家聊一聊移动端应用是什么?

在做什么事儿?

        首先,会从AR眼镜设计研发框图、到整机设计研发、然后到OS以及应用层,由整体到局部,由浅入深,娓娓道来;

        然后,通过分享移动端应用的具体业务与技术方案,帮助大家深入了解移动端应用软件;

        最后,分享一些使用移动端应用的小技巧和小提示。

未来做什么?

        第三part,希望和大家分享下移动端应用未来的工作重心、聊一聊AI,以及AR+AI眼镜行业。

1. 移动端应用是什么?

        简单来说,是指智能手机、平板上的App,但不仅限于此,比如AR眼镜、车机、电视、以及人形机器人等基于移动开发系统的设备,都搭载了各式各样的移动端应用,可谓无处不在。

        跨平台应用:Flutter、React Native、Harmony、KMP——抽象层+适配层。架一层“抽象平台层 / Runtime”,把 UI、系统能力、线程/IO、事件、渲染 等能力在框架里统一,再通过适配层在各端映射到不同平台的 Native 实现。

        功能:输入和连接、传输,设备像“手脚”、App像“遥控器”、云端像“大脑”。

AR眼镜端:执行、显示;     移动端App:连接、控制、同步;     云端:数据存储与分析。

2. 移动端应用在做什么事儿?

        光学设计研发:光学信息从AR眼镜最终传递到人眼视网膜上,视网膜在接收到光信息后通过视神经传递到大脑,大脑进而感知到AR眼镜中呈现的光学信息。

应用层这块的研发重点主要在如下两方面:

        一方面,是AR眼镜上的应用研发,如:大桌面(即开机后显示的主界面)、设置应用、以及3DoF拍照、提词器、AI助手等一些AR眼镜中的特性应用;

        另一方面,是与AR眼镜配套的手机应用研发,目前主要包含Android手机端和iOS手机端。

当前AR眼镜依赖于手机端App提供一部分算力以及应用场景的扩展,帮助其更好实现市场化,AR眼镜要想单独作为一款独立智能设备终端,还需要一定时间。

        为什么需要移动端应用层?      ——现场提问

        显示(EyeBox相对较小、颜色是单绿色)、交互、算力等。

        角色定位:当前主流AR眼镜(特别是分体式、伴侣式AR眼镜)的技术架构——手机作为计算核心,AR眼镜作为显示和交互终端。

        右边新架构优点: 由模块化到组件化,高内聚、低耦合,遵循Solid设计原则。

3. 移动端应用未来做什么?

        1、 在我们这个行业,几乎人人都在聊AI,所以做分享不聊一聊AI,好像自己都跟不上时代的波涛汹涌。 那么目前主流思路是这2点:关注AI发展、使用AI工具。

        2、 AI使用分阶段,初级与中高级使用者提升的效率也是不一样;

        3、 AI幻觉,需要使用者具有判断能力。

        4、 AI时代的码农:人机协同( ~ 选择和判断 ~ 定义问题和识别方向 ~ 调教和沟通 ~ )

一、2022年11月30号,ChatGPT上线3年来,开发中使用到的AI工具小结:

        Gemini CLI、Cursor CLI:做成命令行编程工具的原因:1)可以随意嵌入到任何现有的IDE当中搭配着使用,不需员工放弃他们原本所熟悉的工具;2)未来你并不需要关心代码是怎么写的,你只需要在命令行窗口里给AI提需求就可以了,图形界面的IDE将会变得不再重要。

        ——提高编程效率但不提高编程能力

        ——Cursor不支持AS

        ——代码质量暂时是无法把控的

        ——Vibe Coding理念:只写提示词,不写一行代码来编写程序

二、 AI 工具传统风险点:

        ——人工把代码/日志直接复制进 ChatGPT → 数据外泄

        ——IDE 插件可能会自动上传项目文件

        ——外部 AI 工具不清楚上传数据范围

        企业级 MCP 架构:

        MCP Server 部署在企业内网/本机 → 模型永远不直接读取企业文件内容。模型看到的所有内容,必须经过 MCP Server 的规则过滤:

        ——只允许访问指定目录

        ——自动脱敏(如替换 API Key、手机号、userId)
        ——只允许读取片段,而不是整个仓库

        ——允许“diff 模式”而非全文模式

        ——只允许工具执行结果摘要(如 lint、构建日志)

        ——即使模型无意或误操作,也被 Server 层完全隔离。

三、AI竞争 VS 电力竞争

        首先,都带AI功能;其次,与自己生态结合;最后,流量入口争夺。

        AI眼镜元年、AI硬件元年,AI的最佳载体,手机可能是随身携带的端侧算力中心!

        百镜争鸣时代,我们的核心竞争力是否需要迁移?AI的最佳载体真的是眼镜吗?AR眼镜什么时候能成为独立一款智能设备终端?AR眼镜能代替手机吗?


Thinks~

Read more

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果 你不需要配置环境、不用写一行推理代码、甚至不用打开终端——只要把一张截图拖进浏览器窗口,几秒钟后,它就能告诉你图里写了什么、画了什么、哪里有问题。这不是未来预告,而是你现在就能在本地跑起来的真实体验。 GLM-4.6V-Flash-WEB 是智谱AI最新开源的轻量级视觉语言模型,专为Web端实时交互而生。它不像某些“实验室模型”那样只存在于论文和Benchmark表格里,而是真正做到了:部署快、启动快、响应快、上手更快。一块RTX 3090,一个浏览器,一次拖拽,结果即刻呈现。 本文不讲训练原理,不列参数表格,不堆技术术语。我们只聚焦一件事:怎么用好它的Web界面?从零开始,到稳定产出,每一步都清晰可操作。 1. 为什么说“拖图就出结果”不是宣传话术? 很多多模态模型标榜“支持图文理解”,但实际用起来才发现:要装依赖、改路径、调精度、修CUDA版本、

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.