文章:Lidar-Visual-Inertial Odometry with Online Extrinsic Calibration 链接:https://link./article/10.1007/s12204-023-2570-6 作者:H_K 来源:智驾全栈与3D视觉学习星球 欢迎各位加入知识星球,获取更多技术分享,欢迎转发朋友圈分享快乐。 内容介绍 本文提出了一个改进自LVI-SAM的视觉、激光、IMU紧耦合框架。一种利用激光雷达、视觉和惯导测量单元 (IMU) 进行联合定位的方法,并在线估计和校准它们之间的外部参数,以实现更准确和鲁棒的定位结果。该方法旨在适用于无人机、移动机器人和自动驾驶车辆等领域,以实现精确的定位和导航。 主要贡献:
系统的状态量包括:滑窗内body(imu)的位姿,imu和相机的外参,相机和lidar的外参,视觉特征的逆深度。自适应滑窗与VINS-MONO相似,但是频率以cloud的频率为参考。 滑窗内的空间-时间对齐(spatial-temporal alignment): ![]() 空间对齐:将点云变换到body系; 时间对齐:使用IMU观测数据,将点云变换到cloud之前最近的图像帧。 非线性优化:包含先验项、IMU预积分、视觉重投影、lidar的edge和plane、外参残差。 ![]() 实验结果:鲁棒性优于LVI-SAM,加入外参标定提高定位精度。 ![]() ![]() 更多详细内容或提问作者可加入知识星球 智驾全栈与3D视觉学习星球:主要针对智能驾驶全栈相关技术,3D/2D视觉技术学习分享的知识星球,将持续进行干货技术分享,知识点总结,代码解惑,最新paper分享,解疑答惑等等。星球邀请各个领域有持续分享能力的大佬加入我们,对入门者进行技术指导,对提问者知无不答。同时,星球将联合各知名企业发布自动驾驶,机器视觉等相关招聘信息和内推机会,创造一个在学习和就业上能够相互分享,互帮互助的技术人才聚集群。 以上内容如有错误请留言评论,欢迎指正交流。如有侵权,请联系删除 扫描二维码 关注我们 让我们一起分享一起学习吧!期待有想法,乐于分享的小伙伴加入知识星球注入爱分享的新鲜活力。分享的主题包含但不限于三维视觉,点云,高精地图,自动驾驶,以及机器人等相关的领域。 |
|