一文读懂VR/AR/MR:小白也能分清的虚实交互技术

一文读懂VR/AR/MR:小白也能分清的虚实交互技术

目录

前言

不知道你有没有过这样的困惑:刷视频时刷到VR游戏,刷导航时用到AR实景箭头,偶尔还会看到MR办公的新闻,这三个字母组合长得像“三胞胎”,到底有啥区别?明明都是“和虚拟东西打交道”,为啥有的要戴笨重头盔,有的用手机就能搞定?

其实不用怕,这篇文章专门给小白准备,全程没有晦涩的专业术语,只讲大白话、举身边的例子,再搭配几张简单示意图,看完你不仅能分清VR、AR、MR,还能给身边的人讲明白它们的用法。

在这里插入图片描述

一、逐个击破 —— 三种技术的 “大白话” 解读

1.1 VR(虚拟现实):钻进 “虚拟世界” 不出来

核心定义:用设备把你的视觉、听觉和现实隔离开,让你完全 “沉浸” 在电脑做的虚拟环境里。

关键特点:

  • 全封闭:眼睛看到的、耳朵听到的都是虚拟的,和现实世界 “断联”。
  • 强沉浸:让你感觉 “真的在另一个世界”(比如钻进游戏当主角)。
  • 设备依赖:必须戴 VR 头盔 / 眼镜(比如 Quest 系列),部分需要连接电脑。

生活案例(3 个最常见):VR 游戏(比如打僵尸、玩过山车)、VR 看房(不用去现场,“走进” 样板间)、VR 电影(沉浸式观看特效大片,仿佛置身电影场景)。

在这里插入图片描述

1.2 AR(增强现实):给 “现实世界” 加层 “滤镜”

核心定义:不遮挡现实,而是在你看到的真实世界里,叠加一层虚拟的信息或图像(相当于给眼睛装了个 “智能滤镜”)。

关键特点:

  • 半透明:核心是 “现实”,虚拟内容只是 “补充”(比如现实路面上叠加导航箭头)。
  • 弱沉浸:你清楚知道自己在现实中,虚拟内容是辅助作用。
  • 设备灵活:手机就能用(最普及),也有专用 AR 眼镜(比如 HoloLens 基础版)。

生活案例(3 个最常见):手机 AR 导航(比如高德 / 百度地图的实景导航,路面显箭头)、AR 特效(比如微信 / 抖音的面部贴纸、 Pokémon GO 抓精灵)、商场 AR 虚拟导购(帮你快速找到洗手间、推荐附近餐厅)。

在这里插入图片描述

1.3 MR(混合现实):在 “现实里” 玩 “虚拟物件”

核心定义:把虚拟内容和现实世界 “无缝融合”,不仅能看到虚拟内容,还能让虚拟内容和现实物体互动(相当于虚拟和现实 “打通了”)。

关键特点:

  • 虚实交互:虚拟内容能 “贴” 在现实物体上,还能和现实互动(比如虚拟杯子放在现实桌子上,移动桌子杯子也跟着动)。
  • 中高沉浸:比 AR 沉浸感强(能触摸、操控虚拟内容),但比 VR 弱(不与现实断联)。
  • 设备专业:多需要专用 MR 眼镜(比如 HoloLens 2),技术门槛比 VR/AR 高。

生活案例(4 个最常见):MR 办公(虚拟屏幕贴在现实墙上,用手势操作)、工业维修(对着现实机器,叠加虚拟维修步骤,手势就能点击切换)、MR 虚拟装饰房间(在家预览不同风格的家具摆放效果)和虚拟人物互动(在家就能与虚拟形象聊天、玩游戏)。

二、核心区别大对比 —— 一张表 + 一张图看懂

核心逻辑:从 “虚实融合度”“沉浸感”“设备要求”“核心用途” 4 个关键维度对比,避开混淆点。

2.1 对比表格

对比维度VR(虚拟现实)AR(增强现实)MR(混合现实)
虚实融合度全虚拟(和现实断联)现实为主,虚拟为辅(叠加)虚实无缝融合(可互动)
沉浸感强度最强(完全代入虚拟世界)最弱(清楚感知现实)中等(介于两者之间)
常用设备VR 头盔(Quest、PS VR)手机、简易 AR 眼镜专业 MR 眼镜(HoloLens 2)
核心用途娱乐(游戏、电影)、沉浸式体验(看房 / 看展)日常辅助(导航、特效)、信息展示(商场导购)专业场景(办公、工业、医疗)、家居装饰、虚拟人物互动

2.2 可视化对比图(核心区别一目了然)

在这里插入图片描述

三、避坑指南 —— 小白最容易混淆的 2 个误区

3.1 误区 1:AR 和 MR 是一回事?错!核心在 “交互”

AR 的虚拟内容是 “飘在” 现实上的(比如导航箭头不会跟着现实物体动),而 MR 的虚拟内容是 “长在” 现实上的(能和现实物体互动),简单说:AR 是 “看”,MR 是 “玩”。

3.2 误区 2:设备越贵,技术越高级?不一定!

VR、AR、MR 是三种不同技术路线,不是 “升级关系”(比如 VR 头盔再贵,也变不成 MR),核心看 “是否需要虚实交互”,日常用 AR(手机就能搞定),想沉浸式玩游戏用 VR,专业场景才需要 MR。

总结 ——3 句话快速记住三者区别

  • VR:关起门来玩虚拟(和现实断开)
  • AR:打开门来加滤镜(现实 + 虚拟叠加)
  • MR:推开窗来玩交互(虚拟 + 现实打通)
在这里插入图片描述

Read more

AI绘画新选择:Z-Image-Turbo与Stable Diffusion对比体验

AI绘画新选择:Z-Image-Turbo与Stable Diffusion对比体验 你有没有试过在深夜赶一张海报,输入十几遍提示词,等三分钟生成,结果发现手部多长了两根手指?或者为了调一个参数翻遍GitHub Issues,最后发现只是少装了一个依赖?AI绘画的门槛,从来不在创意,而在环境、速度和确定性。 最近用上ZEEKLOG星图镜像广场里的「集成Z-Image-Turbo文生图大模型」镜像后,我重新打开了本地AI绘图的可能——不是“能跑”,而是“秒出”;不是“差不多”,而是“一眼就对”。它不靠堆步数换质量,也不靠降分辨率保流畅,而是用9步、1024×1024、开箱即用的方式,把文生图这件事拉回“所想即所得”的节奏。本文不讲架构论文,不列参数表格,只从真实使用出发,把Z-Image-Turbo和我们最熟悉的Stable Diffusion(SD 1.5 + SDXL)放在同一台RTX 4090D机器上,比生成速度、比细节还原、比提示词宽容度、比部署成本—

【数字图像处理与FPGA实现】00 绪,建立“算法思维“与“硬件思维“的桥梁

【数字图像处理与FPGA实现】00 绪,建立“算法思维“与“硬件思维“的桥梁

0、初衷 我的历程: 算法->rtl -> 算法&rtl 构建起这座桥,双向互译!直到 “写算法时心中有电路,写FPGA时心中有算法。” 阶段1:我曾是算法的"原教旨主义者"。 最早期,我和许多算法工程师一样,活在 MATLAB/Python/C语言 的抽象象牙塔里。 对我来说,图像就是 imread() 返回的那个完美矩阵, 处理就是调用 conv2() 或 cv2.GaussianBlur()等函数。 数据是静止的、无限的、免费的——内存不够就加条 DIMM, 算得慢就等几秒,边界处理? MATLAB 会帮我 padarray, Python 会帮我

低空经济新实践:无人机如何革新光伏电站巡检

低空经济新实践:无人机如何革新光伏电站巡检

引言:当低空经济遇见新能源革命 在“双碳”战略引领下,光伏电站如雨后春笋般遍布神州大地。截至2023年底,我国光伏发电装机容量已突破6亿千瓦,连续多年位居全球首位。然而,随着光伏电站规模的急剧扩大,传统人工巡检方式已难以满足高效、精准的运维需求。此时,低空经济的崛起为这一痛点带来了创新解法——无人机光伏巡检技术正在重新定义新能源设施的运维模式。 一、传统光伏巡检之困:低效、高风险、不精准 传统光伏巡检主要依赖人工方式,运维人员需要手持红外热像仪等设备,在光伏板阵列中徒步检查。这种方式存在明显短板: 1. 效率低下:一个100MW的光伏电站,人工全面巡检往往需要数周时间 2. 安全风险:高温、高电压环境下作业,人员安全隐患不容忽视 3. 漏检率高:人工目视检查难以发现细微缺陷,问题检出率通常不足70% 4. 数据离散:检查结果依赖个人经验,难以形成标准化数据资产 二、无人机智能巡检系统架构 现代无人机光伏巡检已形成完整的系统解决方案,主要由以下核心模块组成: 2.1 硬件配置 * 飞行平台:

FPGA上实现YOLOv5的一般过程

FPGA上实现YOLOv5的一般过程

在FPGA上实现YOLOv5 YOLO算法现在被工业界广泛的应用,虽说现在有很多的NPU供我们使用,但是我们为了自己去实现一个NPU所以在本文中去实现了一个可以在FPGA上运行的YOLOv5。 YOLOv5的开源代码链接为 https://github.com/ultralytics/yolov5 为了在FPGA中实现YOLOv5,我们首先在VOC数据集上面进行算法的训练,得到训练后的文件,并对训练后的文件进行8bit量化操作 得到三个权重文件。 之后为了将这个权重文件发送到FPGA上,所以我们再次使用python去解析这个权重文件,然后按照我们的FPGA加速器的架构对权重进行重组 解析的Python文件示意如下 得到的权重数据示意如下: 之后呢再来看一下yolov5的网络结构 放大一个局部来看一下,可以看到就是一些卷积,cat等操作 所以我们在FPGA实现的时候也是去实现这些基本的算子 FPGA上实现的结构图如下所示 在每个算子里面都是分为in_buf,out_buf,和控制模块计算模块组成 然后每个模块会有一堆的控制信号来控制整个NPU