仅做学术分享,如有侵权,联系删除 转载于 :作者 | Channon@CSDN 01 Slam概述 SLAM与SFM的区别与联系02 代表性的SLAM算法 一、VINS-MonoIMU测量值的积分可以显著提高运动跟踪性能,弥补光照变化、缺少纹理的区域或运动模糊的视觉轨迹损失的差距。 原文的解决方案的核心是一个鲁棒的基于紧耦合的滑动窗非线性优化的单目视觉惯性里程计(VIO)。 1、一个鲁棒的初始化过程,它能够从未知的初始状态引导系统。 2、一个紧耦合、基于优化的单目视觉惯性里程计,具有相机-IMU外部校准和IMU偏置估计。 3、在线回环检测与紧耦合重定位。 4、四自由度全局位姿图优化。 5、用于无人机导航、大规模定位和移动AR应用的实时性能演示。 6、完全集成于ros的pc版本以及可在iphone 6或更高版本上运行的IOS版本的开源代码。 源码解析 Visual-Inertial融合定位算法. VINS-Mono主要包含两个节点: 前端节点feature_tracker_node和后端节点estimator_node。 前端节点处理Measurement Preprocessing中的Feature Detection and Tracking, 其他几个部分(IMU preintegration, initialization, LocalBA, Loop closure)都是在estimator_node中处理。 二、ORB-SLAM2 论文解读 ORB-SLAM2是基于单目,双目和RGB-D相机的一套完整的SLAM方案。在实时和标准的CPU的前提下能够进行重新定位和回环检测,以及地图的重用。在实验当中,我们关心的是在大场景中建立可用的地图和长期的定位。与此前的SLAM方案进行对比,在大多数的情况下,ORB-SLAM2展现出一样好的精确程度。 视觉SLAM仅仅通过一个单目相机就能够完成。单目相机也是最便宜也是最小巧的传感器设备。然而深度信息无法从单目相机中观测到,地图的尺度和预测轨迹是未知的。此外,由于不能从第一帧当中进行三角测量化,单目视觉SLAM系统的启动往往需要多个视角或者滤波技术才能产生一个初始化的地图。最后,单目SLAM可能会造成尺度漂移,以及在探索的过程中执行纯旋转的时候可能会失败。通过使用一个双目或者RGB-D相机将会解决这些问题,并且能够成为一种更加有效的视觉SLAM的解决方案。 在这篇文章当中,在单目ORB-SLAM[1]的基础上提出ORB-SLAM2,有以下贡献:
系统框架展示: 三、LOAM 论文解读 《LOAM:Lidar Odometry and Mapping in Realtime》 LOAM是激光雷达slam中鼎鼎有名的,一套基于线面特征的前端框架。 使用一个三维空间中运动的两轴激光雷达来构建实时激光里程计。 提出可以同时获得低漂移和低复杂度计算,并且不需要高精度的测距和惯性测量。 核心思想是分割同时定位和建图的复杂问题,寻求通过两个算法同时优化大量变量。: 一个是执行高频率的里程计但是低精度的运动估计,另一个算法在一个数量级低的频率执行匹配和注册点云信息。将这两个算法结合就获得高精度、实时性的激光里程计。 使用以6自由度运动的2轴雷达的距离测量值。 难点:不同时间接收到的距离测量值以及运动估计的误差会导致点云的误匹配. 以高频率但低保真度执行测距法以估计激光雷达的速度+以较低的数量级频率运行,以进行点云的精确匹配和配准 结果表明,该方法可以在最先进的离线批处理方法水平上实现准确性。 主要贡献: 是把同时定位与建图(SLAM)技术分为两部分,一个是高频率(10HZ)低精度的里程计odometry过程,另一个是低频率(1HZ)高精度的建图mapping过程,二者结合可实现低漂移、低计算量、高精度的SLAM。 Lidar Odometry:分为特征点提取Feature Point Extraction和特征点关联 Finding Feature Point Correspondence两部分。
源码解析 LOAM源码主要由四个节点构成,分别完成特征点提取,高频低精度odom, 低频高精度odom, 双频odom融合的功能,每个节点以rosnode的形式存在, 也就是说是独立的进程,进程间通过rostopic传递点云, odom等数据。实际上, 四个节点的执行顺序完全是串行的,很容易改成单进程的版本。 四、MaskFusion -与Mask-RCNN的关联(有使用到)。 多个运动目标进行实时识别、跟踪和重构。 一个实时的、对象感知的、语义的和动态的RGB-D SLAM系统, 超越传统的输出静态场景的纯几何地图的系统。 尽管取得了这些进步,SLAM方法及其在增强现实中的应用在两个领域中仍处于非常初级的阶段。
贡献: 识别、检测、跟踪和重构多个运动的刚性对象,同时可以精确地分割每个实例并为其分配一个语义标签。 联合的输出: (i)Mask- RCNN,这是一个强大的基于图像的实例级分割算法,可以预测80个对象类的对象类别标签; (ii)一种基于几何的分割算法,这将根据深度和表面法线线索生成一个对象边缘映射,以增加目标掩码中对象边界的准确性. 该系统利用语义场景理解来映射和跟踪多个目标.在从二维图像数据中提取语义标签的同时,系统为每个对象实例和背景分别建立了独立的三维模型。 它在识别、重构和跟踪三个主要问题上存在局限性。 在识别方面,MaskFusion只能识别经过MaskRCNN训练的类中的对象(目前MS-COCO数据集的80个类),不考虑对象标签分类错误。虽然MaskFusion可以处理一些非刚性物体的存在,例如人类,但是通过将它们从地图上移除,跟踪和重构仅限于刚性物体。在没有三维模型的情况下,跟踪几何信息较少的小目标会产生误差。 五、BundleFusion BundleFusion_ Real-time Globally Consistent 3D Reconstruction 3D实时重建。 实时、高质量、大规模场景的3D扫描是混合现实和机器人应用的关键。 然而,可扩展性带来了姿态估计漂移的挑战,在累积模型中引入了严重的错误。 这种方法通常需要数小时的离线处理才能全局地纠正模型错误。 最近的在线方法显示了引人注目的结果,但存在以下问题: (1)需要几分钟的时间来进行在线纠正,阻止了真正的实时使用; (2)帧对帧(或帧对模型)位姿估计过于脆弱,导致跟踪失败较多; (3)只支持非结构化的基于点的表示,这限制了扫描的质量和适用性。 我们系统地解决这些问题与一个新颖的,实时的,端到端重建框架。 其核心是一种鲁棒位姿估计策略,通过考虑RGB-D输入的完整历史,用一种有效的分层方法对全局相机位姿集的每帧进行优化。 我们消除了对时间跟踪的严重依赖,并不断地对全局优化的帧进行定位。提出了一个可并行优化框架,该框架采用基于稀疏特征和密集的几何与光度匹配的对应。 我们的方法实时估计全局优化(即束调整BA)姿态,支持从总体跟踪失败中恢复(即重定位)的鲁棒跟踪,并在一个单一框架内实时重新估计3D模型以确保全局一致性。 我们的方法在质量上优于最先进的在线系统,但以前所未有的速度和扫描完整性。提出的框架导致了一个全面的针对大型室内环境的在线扫描解决方案,易用并且能得到高质量的结果。 ---------♥--------- |
|
来自: 汉无为 > 《无人机与自动驾驶原文保留》