EdgeSLAM是Xu等人提出的用于移动和资源受限设备的实时、边缘辅助语义VSLAM系统[89]。它采用了一系列细粒度模块,由边缘服务器和相关移动设备使用,而不需要很复杂的线程。EdgeSLAM中还包括基于掩码RCNN技术的语义分割模块,以优化目标分割和跟踪的效果。作者将他们的方法进行了实践,在一个边缘服务器上安装了一些商用移动设备,如手机和开发板。通过重复使用目标分割的结果,他们使系统参数适应不同的网络带宽和延迟情况来避免重复处理。EdgeSLAM已在TUM RGB-D、KITTI的单目视觉实例和为实验设置创建的数据集上进行了评估。对于立体相机,Schlegel、Colosi和Grisetti[90]提出了一种轻量级的基于特征的VSLAM框架,名为ProSLAM,其结果与效果很好的框架不相上下。他们这个方法包括了四个模块:三角测量模块,它创建3D点云和相关的特征描述子;增量运动估计模块,其处理两个帧以确定当前位置;地图管理模块,创建局部地图;重定位模块,基于局部地图的相似性更新全局地图。ProSLAM使用单个线程检索点的3D位姿,并利用少量已知库来创建简单的系统。根据KITTI和EuRoC数据集的实验,他们的方法可以获得不错的结果。然而,它在旋转估计方面表现较弱,并且不包含任何BA模块。Bavle等人[91]提出了VPS-SLAM,一种用于空中机器人的基于图的轻量级VSLAM框架。他们的实时系统集成了几何数据、多目标检测技术和VO/VIO,以便于位姿估计和构建环境的语义地图。VPS-SLAM使用低级特征、IMU测量和高级平面信息来重建稀疏语义图和估计机器人状态。该系统利用基于COCO数据集[93]的轻量级版本You Only Look Once v2.0(YOLO2)[92]进行目标检测,因为其实时性和计算效率高。他们使用了一个手持相机和一个装有RGB-D相机的空中机器人进行测试。TUM RGB-D数据集的室内实例被用于测试其方法,它们能够提供与已知VSLAM方法相同的结果。但是,他们的VSLAM系统只能使用少量目标(例如椅子、书籍和笔记本电脑)来构建周围区域的语义地图。Tseng等人[94]提出了另一种满足低配条件的实时室内VSLAM方法。作者还提出了一种用于估计合理度的定位精度所需的帧数和视觉元素的技术。他们的方案是基于OpenVSLAM[95]框架,并将其用于现实世界中出现的紧急情况,例如访问特定目标。该系统通过应用高效透视点(EPnP)和RANSAC算法获取场景的特征图以进行准确的姿态估计。根据室内测试结果,他们的设备可以在照明条件不佳时,获取准确的结果。
2)计算迁移(Computation Offloading)
Ben Ali等人[96]提出使用边缘计算(edge computing)将资源密集操作迁移到云上,减少机器人的计算负担。他们在间接框架Edge SLAM 14中修改了ORB-SLAM 2.0的架构,在机器人上运行了tracking模块,并将其余部分迁移到边缘计算设备。通过在机器人和边缘设备之间划分VSLAM Pipeline,系统可以同时维护局部地图和全局地图。在资源较少的情况下,它们仍然可以在不牺牲准确性的情况下正确运行。他们使用TUM RGB-D数据集和两个特定的室内环境数据集(使用不同的移动设备搭载RGB-D相机进行采集)进行了评估。然而,他们的方法的缺点之一是由于各种SLAM模块的解耦而导致的架构复杂性增大。另一个问题是,他们的系统只是短时间的工作中效果不错,而在长期场景(例如,多天)中使用Edge SLAM效果性能会下降。