分享

基于激光雷达、视觉和惯导的轨迹估计与在线外参标定

 点云PCL 2023-03-01 发布于上海

文章:Lidar-Visual-Inertial Odometry with Online Extrinsic Calibration

链接:https://link./article/10.1007/s12204-023-2570-6

作者:H_K

来源:智驾全栈与3D视觉学习星球

欢迎各位加入知识星球,获取更多技术分享,欢迎转发朋友圈分享快乐。

内容介绍

本文提出了一个改进自LVI-SAM的视觉、激光、IMU紧耦合框架。一种利用激光雷达、视觉和惯导测量单元 (IMU) 进行联合定位的方法,并在线估计和校准它们之间的外部参数,以实现更准确和鲁棒的定位结果。该方法旨在适用于无人机、移动机器人和自动驾驶车辆等领域,以实现精确的定位和导航。

主要贡献:

  • 自适应滑窗处理不同频率的数据;

  • 用视觉、点云特征和IMU做在线的外参标定。

系统的状态量包括:滑窗内body(imu)的位姿,imu和相机的外参,相机和lidar的外参,视觉特征的逆深度。自适应滑窗与VINS-MONO相似,但是频率以cloud的频率为参考。

滑窗内的空间-时间对齐(spatial-temporal alignment):

空间对齐:将点云变换到body系;

时间对齐:使用IMU观测数据,将点云变换到cloud之前最近的图像帧。

非线性优化:包含先验项、IMU预积分、视觉重投影、lidar的edge和plane、外参残差。

实验结果:鲁棒性优于LVI-SAM,加入外参标定提高定位精度。

更多详细内容或提问作者可加入知识星球

智驾全栈与3D视觉学习星球:主要针对智能驾驶全栈相关技术,3D/2D视觉技术学习分享的知识星球,将持续进行干货技术分享,知识点总结,代码解惑,最新paper分享,解疑答惑等等。星球邀请各个领域有持续分享能力的大佬加入我们,对入门者进行技术指导,对提问者知无不答。同时,星球将联合各知名企业发布自动驾驶,机器视觉等相关招聘信息和内推机会,创造一个在学习和就业上能够相互分享,互帮互助的技术人才聚集群。

以上内容如有错误请留言评论,欢迎指正交流。如有侵权,请联系删除

扫描二维码

                   关注我们

让我们一起分享一起学习吧!期待有想法,乐于分享的小伙伴加入知识星球注入爱分享的新鲜活力。分享的主题包含但不限于三维视觉,点云,高精地图,自动驾驶,以及机器人等相关的领域。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多