虚拟现实基础知识


本文曾作为素材分三篇发表于极客视界:“去掉所有渲染与特效,真正的虚拟现实其实是这样的”——上篇中篇下篇

这里是对 Virtual Reality Basics 原文的完整翻译。


A Head-Mounted Display

让我们一起来快速浏览一圈当前整个虚拟现实领域最为显著的候选产品、技术以及术语。

短短几年前,虚拟现实的实际应用还仅限于某个昂贵的学术实验室或是秘密军用设施。但随着大量廉价的移动屏幕被改用于开发高质量的虚拟现实设备,其结果便形成了当下这波头戴式显示器、手机 VR 盒子以及各种控制设备的热潮。

在一款真正可用的虚拟现实产品能够上架之前,广大消费者和内容制作商将会一直被持续不断的创新创意、技术规格、言过其实的论断以及过度渲染过的产品效果演示所蒙蔽。最近 GDC 在虚拟现实方面的多个发布会,特别是 E3 大展上刚刚起来的虚拟现实热潮,使得这个领域的情况愈发让人迷惑了。

接下来我们将快速为你梳理出虚拟现实技术上真正有意义的要点,并描绘出所有这些元素是如何相互工作在一起……从而实现出整个的虚拟现实概念的。我们将会确定出其中的一些关键用语,并从大量虚幻的说法中分离出一些简单有力的事实。到最后,当这些概念中的产品真正成为现实的时候,我们希望你对如何分辨它们的细节能有一个更好的理解。

临场感(Presence)

临场感是当前虚拟现实行业的所有人都在努力实现的目标:让你的大脑像感知现实世界一般身临其境地去感受呈现在你面前的那个虚拟环境。这里并非是说呈现给你某种真实的生活场景(所谓的照片现实),而是当你站在一处虚拟悬崖边上的那一时刻,尽管你在大脑里很清楚“即便真的再往前迈一步也不会有危险”,可一旦你真的迈出那一步,临场感所激发的本能反应依然会让你的身体感受到像是真的掉下了悬崖一般。

视场(Field of View)

Oculus field of view comparison from original Kickstarter video.

可以说消费级虚拟现实领域最大的突破就在于视场(即实际可见区域)这一点。平均而言,人眼天生所能看到视场大约是170度。在 Oculus Rift 的 Kickstarter 众筹之前,绝大多数像 Vuzix VR920 和 Sony HMZ-T1 这类头戴式显示器只有区区32度、最多45度大小的视场。即便如此,这样的设备常常还是被吹嘘成是可以让你感受到像电影院里的巨幅银幕一般的使用体验,事实则是它们从未能做到过那种程度。

相比之下,最新的消费级头戴式显示器的原型产品都能实现90度到120度的视场。尽管这依旧未能达到我们天生所能看到的170度视场,一个100度以上的视场也还是能够创造出一些比较令人信服的虚拟现实体验的,正如 Sony 的 Project Morpheus 或是期待中的 Oculus CV1 这些即将上市的产品所演示的那样。

延迟(Latency)

这里的延迟是指,当你转动头部之后,屏幕上物理更新图像相对于你本应看到的图像之间的画面延时。AMD 的首席游戏科学家 Richard Huddy 认为,11 毫秒或是更低的延迟对于互动性游戏来说是必需的,即使个别情况下以20毫秒的延迟在一个360度的虚拟现实电影中移动还算可以接受。而 Nvidia 在技术文档或媒体采访中所推荐的都是20毫秒,然而这一点并非是作为一个硬件在性能方面的指标,它仅仅是硬件能否支持真正的虚拟现实功能的一条基准线。

头部追踪技术(Head Tracking)

头部追踪技术分为两大类。

基于运动方向的头部追踪技术是其最基本的形式,它所检测的只是你头部转动时的方向:从左到右、从上到下,顺时针或是逆时针。目前,这种形式的头部追踪技术是诸如 Samsung 的 Gear VR, ImmersiON-VRelia 的 GO HMD 以及 Google 的 Cardboard 这样的手机 VR 盒子所唯一可用的。这同样也是 Oculus Rift DK1 中所用的头部追踪方式。

另一种形式的头部追踪技术被称为位置追踪,其追踪内容既包括你头部转动的方向又包括身体位置的移动及其相关解读。它并非是追踪你四肢的运动,而仅仅是追踪头戴式显示器的位置变化及其与身体运动之间的关系——例如,你是在从一侧摇摆向另一侧,还是在以整个躯体下沉重心来缓冲跌落冲击?

位置追踪有多种不同的实现方式:

  • Oculus Rift DK2 和 Crescent Bay —— 以及现在的 CV1 —— 使用的是结合磁力计与陀螺仪的红外摄像头。摄像头接收头戴式显示器上面的反光器反射回来的红外线,并从反光器的具体位置上推断出相应的位置数据。Oculus 把这一追踪系统命名为 Constellation(意为星座)。
  • Sixense 为 Samsung 的 Gear VR 开发出一套实验性的附件,使用磁场来检测某一物品是如何处在其位置上的,从而使得专门的位置追踪功能也能被用在一款原本不具备该功能的设备上。 Vrvana Totem Prototype
  • Vrvana 以追踪标记或房间结构为基础,使用摄像头来确定其头戴式显示器的物理位置。当追踪功能需要在没有追踪标记的环境中同样能工作时,我们在 E3 大展上见识过一款基于双摄像头的原型机。
  • HTC/Valve 的 Vive HMD 使用的是一种名为 “Lighthouse”(灯塔)的技术(稍后会详述)。

当然还有其他类型的技术,但以上这几个是最为主流的例子。

分辨率(Resolution)

注意!在这里广告上的分辨率跟眼睛实际看到的分辨率是不一样的(抓到这个点了吗?)。当前准备投向市场的头戴式显示器按屏幕分辨率的类型可以分为两种。其中最为常见的是单一屏幕这种,其真实分辨率要从屏幕正中央分开来算(一只眼睛对应一半屏幕)。

因此,尽管 Sony 宣称其 PlayStation VR (PSVR) 的分辨率是1920x1080,但事实是对于每只眼睛来说其像素只有960x1080。同样单屏的 Oculus Rift DK1 (1280x800 或是单眼 640x800 ) 和 DK2 (1920x1080 或是单眼 960x1080 ) 也是一样道理。

ImmersiON-VRelia

而其他设备,如 ImmersiON-VRelia 是通过使用两块屏幕来实现一个更大的分辨率,因而这样的一块 1080p 屏幕对于单只眼睛来说确实是1920x1080。Oculus CV1 2160x1200 的分辨率就是这个意思,它是由两块1080x1200的屏幕组合而来的。

输入(Input)

在今年的 GDC 和 E3 大展之前,虚拟现实领域所有的注意力都集中在显示技术方面,虚拟交互方面的输入设备则几乎没有。我们这里所说的“输入”,是指专门为虚拟现实及其交互功能所设计出来的控制设备。

CAVE Crayoland by User: Davepape - own work (self-photograph using timer).

如同 Sixense 为 Samsung 的 Gear VR 所开发的位置追踪装置是基于磁场一样,其 STEM 无线手柄所使用的同样也是磁场。这是一种过去几十年来一直被用于 CAVE 虚拟现实系统的老式技术。CAVE(即 cave automatic virtual environment,意为洞穴式自动化虚拟环境)本质上是一个基于投影的虚拟现实房间,有些案例中会使用大型显示屏。CAVE 最低限度的形式可以被理解为是两面墙加上地板,但也可以是先进到大尺度上的封闭六面体这类高级仿真结构。它们最常被用在模拟及研究领域。

在 CAVE 这种虚拟环境中,最初的交互方式就是通过基于磁力检测的穿戴设备或控制器。这里的挑战在于,CAVE 通常都是基于一个巨大的金属框架,如同超人对于氪石的厌恶反应一样,磁场对于金属的反应也并不是很好。这就是为什么 CAVE 最终都转向于基于光学摄像头的追踪技术。

STEM Controller With IMU

根据 Sixense 公司 CEO Amir Rubin 的说法,其全新的 STEM 手柄已经克服了磁场与金属框架交互相关的难题。在每一个 STEM 手柄内部的 IMU(inertial measurement unit,惯性测量单元)协助下,Sixense 通过关联磁场数据和 IMU 的数据来确保最终位置信息的一致性。在所有准备好的演示中,我们看到这项技术都工作得很好。

而 Oculus VR 所提供出来的输入设备则是一个半月形手柄——Oculus Touch,尽管现在还不能确定这就是其交互技术的最终形式。它们介于 Oculus CV1 及 Crescent Bay 所正在使用的红外追踪技术,和那些被设计出来用以检测使用者抓握动作的控制器之间。不同于基于手套那种试图确定用户手指的精确位置与抓握程度的技术,半月形手柄通过检测其不同的按钮与电容传感器的开关状态来模拟出设备被握持的方式。尽管最初我使用得比较挣扎,其他用户认为它还是很容易上手的。相对于标准的 Xbox 手柄,这对于虚拟现实领域自身来说绝对会是的一个更好选项。

HTC (Valve) Vive

HTC 和 Valve 为 Vive HMD 及其控制器所配备的是一套激光束追踪系统。这项名为 “Lighthouse”(意为灯塔)的技术,需要你在天花板及房间对面挂载两个激光发射基站。而 Vive HMD 及其控制器则覆盖着许多光子传感器。

光子传感器是根据头戴式显示器或是任何需要被追踪设备的外形有策略地被放置好。当激光束闪烁到这些传感器上时,Lighthouse 系统根据激光闪烁的计时来计算出该设备相对于基站的位置和方向。这些传感器在设备表面的放置信息,结合激光闪烁到它们时所检测到的位置信息,将会提供出头部追踪所需要的即时位置数据以及相应的输入控制信息。

Kris Roberts trying Starbreeze VR HMD at E3.

为了在 E3 大展上展示虚拟现实世界中的《行尸走肉》,Starbreeze Studios 实验性的 StarVR HMD 产品原型基于两块 2.5K 的屏幕,通过相应的菲涅尔透镜使得其视场扩大到惊人的210度。其位置追踪技术是通过识别贴在头戴式显示器或任何需要被追踪物品表面的信标来实现的,由一个外置的摄像头来检测这些标记的摆放方式从而推断出该头戴设备或是其他相应物品的位置。

Starbreeze Studios 的首席技术官 Emmanuel Marquez 说,该公司想要它的头戴式显示器的分辨率能够达到高达 8K 的程度,而他预计这将在接下来的5年内成为可能。

Sony PlayStation Eye

Sony 的 Move 平台是由 PlayStation Eye 摄像头和 Move 手柄共同组成。手柄顶端有一个可以动态改变颜色的球体,这种用以区别房间背景的颜色变化更便于摄像头来追踪球体。Move 手柄上的加速度计和角速度传感器可以用来检测手柄的转动。把所有这些元素结合起来,使得该手柄拥有了相当了不起的准确度。

然而这里真正的成功还在于,尽管这一 PlayStation 的 Move 技术原本只是开发出来用以进行 PS 游戏上一些有趣的互动操作而已,它反而很容易被转用为 Sony 的 PSVR 里面最为核心的头部追踪技术,这是因为它能同时满足有关低延迟以及头部位置追踪方面的所有技术标准。

但是,这里的技术并不完全都在于你手中所握持的设备。还有能够接收你指尖每一个细微动作的手势控制设备。

Leap Motion

Leap Motion 仅有一块小的巧克力棒大小,拥有两个摄像头和3个红外 LED 灯。摄像头能捕捉任何反射回来的红外光,通过软件模拟,它能够创造出其视场内实时的立体图景。Leap Motion 最新的软件甚至拥有一种补偿技术,当你的一只手覆盖住另一只手时可用于追踪手部骨骼的运动。

Leap Motion 可以追踪到设备前面2英尺范围的运动,并且 Razer 已经把它用作其 OSVR 平台的官方配件,为其头戴式显示器追踪手部运动。

FOVE HMD with eye tracking

FOVE 公司的名字源自拉丁文 “fovea”(即视网膜中央凹,主要用于正常光强条件下辨别颜色及其他视觉信息)。它正在开发中的头戴式显示器的特点是眼球追踪,在已经实现的演示中,你只是动动眼球就可以控制虚拟界面。这一技术还能根据你所看到的场景来调整景深。

如前所述,对于虚拟现实而言,一个巨大的挑战是能有足够的处理能力来实现所必需的画面帧率与超低延迟。对于临场感来说足够大的视场同样也是必需的,但这其实并不要求整个视场的图像都是完整品质的分辨率,因为自然状况下人们并不能注意到视场边缘区域的细节。所以,眼球追踪技术就开启了一种可称为是“中央凹渲染”方法的大门:即大部分的图形处理能力都用来增强屏幕上你所关注的那一小块区域的细节,而对于你所无法有效注意起来的边缘区域则分配尽可能少的资源。简而言之,眼球追踪技术所实现的是一种更为有效的渲染方式,因为它只需要渲染好你所需要看到的那部分图像就够了。

在2015 E3 大展上 MTBS 采访 FOVE 的视频中,FOVE 表示等到其 HMD 开发者版套件发货时“中央凹渲染”技术应该就可用了。该公司还同 Valve 在 Lighthouse 追踪方案的使用上建立起了合作。(Valve 正在向符合条件的第三方设备发放其位置追踪技术的使用许可。)

Sulon Technologies' Cortex

值得一提的另外一个解决方案是:Sulon Technologies 正在开发中的混合/增强现实头戴式显示器。它跟 Google 的 Magic Leap 或是 Microsoft 的 HoloLens 所宣称的事实上一致,该公司的宣传视频也同样令人印象深刻。然而,大家最为兴奋的还是该产品最后所实现出来的实际效果。

Sulon Cortex 用一对摄像头来扫描整个房间,它的算法会基于你正在看到的东西以及你与之交互的方式来生成一层虚拟界面,其结果是一种混合了你周围的真实环境与数字世界的增强现实体验。

相比宣传视频中所展示出来的效果,我们所看到的每个版本的产品肯定都只能算是这一技术的早期阶段,但是像 Sulon Technologies 这样的公司正在朝正确的方向努力。

移动(Locomotion)

实现临场感的另一个巨大挑战在于能够体验到令人信服的全方位物理运动。如果你的身体跟意识所感知到的是完全不同的体验,那么所模拟出来的幻象基本就是其原本支离破碎的样子。HTC/Valve 宣称 Vive 能够在15英尺见方的范围内工作,而 Oculus CV1 的演示视频中所展示的范围大约只有 Vive 的三分之。

Cyberith Virtualizer

初次亮相于 Kickstarter 的 Virtuix Omni 和 Cyberith Virtualizer 是这一问题的两个解决方案。它们的原理是一样的:你都是站在一个滑动的平台上,对于 Cyberith Virtualizer 是由一个摄像头来追踪你脚步的运动,而 Virtuix Omni 则需要你穿上一副植入运动传感器的鞋套来感知你的运动。这两种方案都不是你自然情况下的运动方式,不过一旦你熟悉了它们,这两种技术倒是都可以解决问题。

另外一种办法是选择一处开放的空间,然后在那里体验虚拟现实。如果你是在一处足够大的区域使用头戴式显示器,你在虚拟环境中所体验到的运动,事实上可能只不过是哄骗你安全地在原地绕圈子而已。例如,HTC/Valve Vive 所设计的就是支持一块 15x15 英尺的空间。而让设备能感知到房间的具体边界也是可行的,追踪到你具体的物理位置,然后在虚拟环境中设计出一些叙事上的路障以避免你撞到边界。

Oculus Crescent Bay freestanding demo

在 Sulon Cortex 的例子中,整个房间在屋里上会预先被扫描进设备,从而虚拟环境中的墙也会被校准到实体墙的位置。只要地板上没有什么散落的物品,即使看不到周围的实体世界,我们在虚拟环境中也确实会是安全的。

接下来还有几个看起来花哨但也很重要的说法,尽管解释出来的很少,不过人们一直都在谈论。

低余辉(Low Persistence)

随着 Oculus Rift DK1 一进入市场,现有的移动显示屏在虚拟现实方面的毛病立刻凸显了出来:动态模糊。DK1 是基于一块有“余辉”的显示屏来工作的,这就意味着它显示过的图像会一直存在。其结果就是,当你转动头部的时候整个画面的影像会变得非常浑浊,原因是你仍能看到前一帧画面的数据,而那已经不是你头部当前方向所应呈现出来的画面。这种不一致就会造成画面拖影。

尽管最新的 OLED 屏幕有着更高的刷新率,但仍不足以解决这一问题。低余辉显示屏正常工作还需要能及时呈现出正确播放的那一帧图像,同时立刻关闭该帧后还能显示好下一帧已经准备出来的图像。Oculus 的 DK2 或其更新产品,Sony 的 PSVR,HTC/Valve 的 Vive 以及其他当前的解决方案已能做到完全清除前一帧图像的残留,动态模糊这一问题可以说是已经被解决好了。

这里的技术诀窍是需要用最低 75 fps 的画面刷新速度匹配上屏幕 75 Hz 的刷新率(或是更高,具体数值可取决于屏幕的技术规格)。如果虚拟内容的画面到不到这一标准,这一解决办法也就无法奏效。幸运的是,我们还有一个解决方案。

异步时间扭曲(Asynchronous Timewarp)

我们知道,如果一块低余辉显示屏能够在 75 Hz 的刷新率下工作,它还需要具备 75 fps 的图像处理能力。问题在于,高分辨率下的 75 fps 的帧率很难维持,因为当前的显卡即便在 60 fps 的设置下都运行得极为勉强。如果你再把显卡还要同时渲染左右视图来实现出有立体感的 3D 效果这一计算量考虑进来,仅仅是展示这些图形密集的演示片段的散热就足以让寒冬里冰冷的展览大厅内热浪滚滚。

异步时间扭曲(ATW) 是在游戏或应用程序无法维持帧率的情况下,通过技术性地生成中间帧来实现 GPU 渲染能力与屏幕显示需求之间的平衡。这一“扭曲”是一个实际的调整进程。时间扭曲是通过扭曲一帧被送往显示器之前的图像来修正头部运动所造成的延迟,它发生于画面被渲染进程创造出来之后。中间帧作为一种后处理效果是在于,它改变的是已经完成的图像来匹配用户最新的头部位置。

Asynchronous timewarp (ATW)

时间扭曲的局限性在于,它要依赖于显卡所渲染好的那一帧图像,因为中间帧的调整是发生在这一帧的渲染完成之后。如果此刻计算机正在被另一任务占据并停顿下来的话,头戴式显示器所显示的信息则会太过延迟而导致使用者不适。

异步时间扭曲致力于通过一个独立于显卡渲染周期的处理进程来持续追踪头部位置,从而来解决图像显示的余辉问题。在每一次垂直同步前,该异步进程均会把其最新的信息提交给渲染进程最新完成的那一帧。通过时间扭曲这种方式,应该能够获取得更低的延迟以及更高的准确度。

不幸的是,这并不完美。尽管异步时间扭曲为的是能有助于弥补显卡在性能上的不足,但它还是容易形成“颤抖”效果,或是轻微的图像重影,如上图所示。

当然还有其他技术方面的说法,将来可能还会有更多,但以上这几个技术就是我们现在最常听到的说法。

尽管还有待于来自 DirectX 和 OpenGL 的正式 VR 标准,AMD 和 Nvidia 已经通过他们专有的技术与 SDK 来提升自身显卡的交互性能了。他们具体的目标还是为用在虚拟现实上的图像渲染来降低延迟,同时提高帧率。

AMD Liquid VR

Liquid VR

根据 AMD 首席游戏科学家 Richard Huddy 的说法,Liquid VR 是运行在 Mantle 平台上的一块独立代码。Mantle 是 AMD 所专有的 API,相比标准的 DirectX 接口,它能提供出更为深层和快速的权限来访问 AMD 的显卡架构。

Mantle 和 Liquid VR 所提供的是访问 AMD 异步处理引擎 (asynchronous compute engine, ACE)功能的完全访问权限。GPU 的流处理单元只是用以处理单一命令的指令槽。 在较旧的 GPU 中,这些指令都是循序执行的。尽管 Radeon HD 7970 显卡拥有 2048 个着色器,它们也极少全都能被充分利用起来,即便是在 GPU 全速运转的情况下。而最新的 ACE 架构则可以让你在处理进程中同时插入不同的指令,从而充分利用起这些计算资源。当空闲的流处理单元的指令槽可用时,所需要的命令就可以插入进来执行。这样 GPU 就可以在执行图像渲染工作的同时来处理这些计算任务,而又不比放下宝贵的处理时间。

Affinity Multi-GPU

在多重 GPU 的 CrossFire 配置中,是由显卡之间相互交替来渲染每一帧图像的。不过,当图像在虚拟现实头戴式显示器中被分割开来显示的时候,这一协同效果表现得并不是很好。而 Liquid VR 则能够有效地为每块显卡分配好任务——一个GPU负责左眼,一个 GPU 负责右眼。

AMD 这一 API 还可以让显卡直接跟头戴式显示器进行通信,而非是还要通过 Oculus VR 或者 Razer 的 OSVR 平台这类独立的 SDK 来显示图像。尽管 AMD 所展示的是用 Liquid VR 来支持 Oculus VR 的设备,这一技术却并非只为 AMD 的专有 GPU 所开发的,该公司为所有符合条件的解决方案提供支持。

尽管 AMD 在 GDC 的演示中所用的是其最新的300系列 GPU,它还相信其较快的上一代显卡也可以运行当前的虚拟现实内容,这很有可能是在于新卡在很大程度上只是旧卡重新包装而来的结果。

Nvidia GameWorks VR

与其说是一个正式的 API,Nvidia 的 GameWorks VR 更多地是作为一系列的技术和功能来帮助开发者们更为充分地把他们的 GPU 应用于 VR 目的。例如我们先前所说的异步时间扭曲技术,在 Nvidia 的 GameWorks 环境,异步时间扭曲可以运行在驱动器层面。类似于 AMD 的 Liquid VR 平台,Nvidia 也在引入 VR SLI,这意味着拥有多重显卡的计算机将能更好地同时渲染左右视图,从而输出更具效果地虚拟现实体验。

这里最为有趣的是该公司的多分辨率着色技术。像 Oculus Rift 与 HTC Vive 这样的现代头戴式显示器需要把一种椭圆形的双视图发送到它们的屏幕上。尽管这样的图像在电脑屏幕上用裸眼看上去会很奇怪,但透过 HMD 的透镜去观察时它们的图形就是会是正常的体验了。左右视图中心的像素比较密集,外围像素则因图像扭曲在分布上要远为零散。

迄今为止,这种像素扭曲都是在图像完成后才进行的。显卡倾尽其所有性能来渲染出全分辨率的图像,然后再交由一个后处理阶段来生成扭曲后的图像。而屏幕即便使用更少的像素也能实现出效果一样的虚拟现实体验,这样的渲染过程根本就是在浪费资源。

Nvidia 的解决办法是把整个图像分割成3x3的视区网格。在这里,我们把视区这个概念简单理解成是屏幕上被分割出来的空间就好。在中央视区仍保留完整分辨率的情况下,外围视区则用类似于传统后处理阶段的扭曲方式进行渲染。当这一切完成后,同样用户感知效果的图像相比原来的像素数量可减少25%到50%,而像素渲染效率则提升为原来的1.3倍到2倍。以 Oculus CV1 为例,其2160X1200像素的屏幕采用多像素着色技术所需求的显卡性能会比原来下降30%到50%。

Nvidia 还在推广一个被称为是高优先级图形上下文的概念。通过传统的 DirectX 接口进行渲染时,当你从 A 点转动到 B 点开发者是用一个固定进程来处理画面。Nvidia 放宽了进入渲染路径的窗口,使得头部追踪所带来的不可预估的变化可以被开发者更迅速地修正。

即便有着 AMD 与 Nvidia 双方的强力支持,问题的关键还在于这两种技术都无法代表一个正式的标准。这就意味着游戏及内容制作商不得不同时支持两种专有的技术开发途径以获取每种显卡架构的最佳性能。

总结(Conclusion)

我一直在参与这个行业的发展,特别是它随着这几年来的热潮重新启动之后,可以说这里面正在发生的事情真的很吸引人。在一个真正消费级的产品得以发布前,我们就已经看到过了为把为把图形带上 VR 屏幕这一核心领域内所进行的专注创新,我们正在看到具备核心功能及广泛细节追求的头戴式显示器的出现。甚至还有许多全新的实验性想法在浮出水面——包括那些不幸失败的主意。

然而,我们必须提醒自己的是,这场技术比拼是没有终点的。跟学习曲线有限的传统显示技术不同,虚拟现实领域每一个新增元素的出现都有可能戏剧性地改变我们对于虚拟现实或其他沉浸式体验技术的理解。根据 Sony 沉浸式技术团队总监 Simon Benson 的说法,一项可以把视场大小仅仅增加5度的技术就能改变一切。

亲眼看到 Oculus CV1, Valve/HTC Vice, FOVE, Starbreeze VR, Immersion-VRelia 的 GO 平台及其他数不清的产品的面世,这一切意味着一个多样化的行业正在成型,而最好的事情还尚待发生。只要这些平台别把自身限制在单一的品牌上,或是 API 变成不可知的失败,这一领域对于消费者和供应商双方来说都有足够的空间来取得双赢。


【更新:本文更新于2015年10月12日,以修正我们所提供的关于 Oculus CV1 分辨率的错误,以及其他的一些细微更改,如使用 Sony PSVR 的提法而非原先的 Morpheus,某个被引用专家的头衔更正,以及一些关于 HTC/Valve Vive Lighthouse 技术工作原理的说明。】

by Niel Schneider