从 Demo 到现实: 高斯飞溅技术的用户级应用
去年在 Connect2024 大会上,Meta 曾通过一个演示应用 《HorizonHyperscapeDemo》 展示了高斯飞溅 (GaussianSplatting) 技术的强大魅力,将现实场景以惊人的真实感呈现在 VR 中。如今,这一技术不再是展示品,而是正式向普通用户开放。
创建 HorizonHyperscape 场景分为三个步骤,其中前两步在 Quest3 头显上完成,第三步则依赖 Meta 的服务器进行处理。
-
场景网格生成: 用户首先需要戴上 Quest3 或 Quest3S 头显,环顾房间以生成场景网格。这一过程与设置混合现实功能时的操作类似,通常需要 10 至 30 秒。
-
精细化扫描: 用户接下来需要走遍房间,将头显贴近所有表面,以消除 3D 网格并捕获细节。这个精细化过程是目前最耗时的环节,可能花费数分钟。
-
云端处理与传输: 完成设备端的扫描后,数据将上传至 Meta 服务器。经过 2 至 4 小时的处理,用户就会收到通知,可以查看并体验最终的 VR 场景。
云端流式传输与体验细节
HorizonHyperscape 的实现核心是高斯飞溅技术,它与去年演示应用 《HorizonHyperscapeDemo》 所使用的技术相同。渲染后的场景通过 Meta 的 「ProjectAvalanche」 技术从云端服务器进行流式传输,这意味着所有复杂的计算都在云端完成,而非在设备上。
尽管这一技术带来了前所未有的真实感,但目前仍有不足之处。例如,小字号文字依然存在模糊,并且在某些观察角度下,如深蹲观察家具底部时,可能会出现明显的几何变形。这些瑕疵源于头显在扫描过程中未能捕获到这些区域。但总体而言,这项技术被认为是目前最真实的场景捕获技术之一。









