分享

苹果如何建构出立体化的数字世界?

 天承办公室 2020-04-11

出品| 虎嗅 Pro

撰文| Odin

封面来自苹果

------------------

早前,苹果推出了新一代的 iPad Pro,引入了全新的 DTOF 激光雷达系统,通过相机感知四周环境,然后在系统里重构四周环境的立体模型,藉此让虚拟世界的影像,能与现实世界互动(下图)。苹果的新一代 iPad Pro,被视为苹果对增强现实的一次重大战略举措,因而引起了极大的关注。

图片来源:Apple

但是,究竟什么是激光雷达?什么是 DTOF?为什么激光雷达 (LiDAR) 就能重四周的立体影像,实现增强实境?而苹果这次引入激光雷达,为什么会引起巨大的回响?现在就让 Odin 为大家介绍激光雷达的操作,以及它可能会为科技界带来甚么影响。

计算机是如何感知环境的?

电脑、手机或是平板通过摄影机和电脑,代替人眼对目标进行辨识、跟踪和测量等机器视觉,并进一步做图像处理,我们会称之为“计算机视觉” (Computer Vision)。而 iPad Pro 的激光雷达,也属于计算机视觉技术的范畴,他的运作流程如下:

  1. 环境感知:要让你的 iPad 知道四周环境的距离、形状和大小;

  2. 立体建模:电脑根据上述数据,建立四周环境的虚拟的虚拟的立体模型;

  3. 实时定位:让系统知道知道自己的位置,并在屏幕上实时显示立体模型的应有形态。

iPad Pro 采用的激光雷达,就是“环境感知”的部份但为什么我要用激光来进行环境感知,而不是用一般相机来处理呢?这是由于但我们身处真实的立体世界,是一个三维度(长度、高度、深度)空间,但电脑通过相机记录的影像,却只能记录两个维度(长度、高度)的空间信息,

图片修改自 blend4web

以上图为例,左图由一般相机生成的画面,是无法显示小桌到窗边的深度信息。所以,一般相机拍下的影像,缺乏最重要的深度信息,因而无法重现三维的立体环境。所以,如何获取深度信息,向来也是是计算机视觉的一个重要议题。

目前电脑有很多不同种类的深度感知手段,但总体而言,我们可以通过“感知媒介”/“感知算法”两个层面来分析(上图)。

首先,我们可以通过发射不同的电波作为媒介来感知四周环境我们可以通过主动发射红外光 (Infra-red, IR)、毫光波 (mmWave) 雷达、激光雷达 (LiDAR) 等等的媒介来测距,这种做有源感知。但有些设备有些设备(例如大疆无人机),不会主动发射任何电波,反而采用一般相机接收外界的可见光源,再通过复杂的三角函数算法来计算深度信息,我们称之为“无源感知”。

但我们通过不同媒体感知四周环境,还需要通过不同的算法,把测量到的环境信息,转化为深度信息。环境感知算法主要有 ToF、三角测量法、视觉里程计等。即使同样是用红外作为感知手段,我们也可以用不同的算法计算,例如你可以用红外光搭配 ToF 算法(例如相机的红外对焦),也可以通过把红外光编为结构光阵列,再用三角函数计算阵列畸变来得出深度信息。

那 iPad 的激光雷达算是哪一种?就是以“激光”为测量媒介、以“ToF”作为算法的手段。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多