分享

【泡泡一分钟】机器人顶级会议精华提炼(20211031-20211106)

 awoziji 2021-11-08

每天一分钟,带你读遍机器人顶级会议文章

来源:计算机视觉和机器人顶级会议

播音员:水蘸墨,赵嘉珩

汇总:王靖淇

编译:泡泡一分钟全体组员

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

图片

摘要

图片

2021年10月31日-2021年11月06日,泡泡一分钟共推送了6篇文章。其内容涉及到环境感知(1篇)、深度估计(1篇)、图像匹配(1篇)、状态估计(1篇)、轨迹预测(1篇)、视觉定位(1篇)。

环境感知

环境感知方面本周共推送1篇文章。

这篇文章提出了一种学习框架,该框架以任务感知方式利用预测模型学习到的信息来检测新场景。作者使用网络显著性为学习架构提供与决策最相关的输入区域知识,并学习显著性地图与预测输出之间的关联,以确定输入的新颖性。通过在真实驾驶数据集以及室内驾驶环境中的驾驶场景中的实验,证明了该方法的有效性。

图片

自治系统中基于视觉深度学习新颖性检测的任务感知方法

深度估计

深度估计方面本周共推送1篇文章。

这篇文章为了应对3D传感器难以对透明物体进行准确深度估计这一挑战,提出了ClearGrasp—一种用于从单个RGB-D图像中估计透明物体的准确3D几何形状以进行机器人操作的深度学习方法。给定透明物体的单个RGB-D图像,ClearGrasp使用深度卷积网络来推断表面的法线、透明物体表面的掩膜和遮挡边界。然后使用这些输出来优化场景中所有透明表面的初始深度估计。

图片

ClearGrasp:用于操作的透明物体的3D形状估计

图像匹配

图像匹配方面本周共推送1篇文章。

在这篇文章中,作者提出一种新颖且高效,利用了区域共视传递性的图片匹配方法。文章运用了迭代匹配的策略,甚至在只有很少正确特征匹配的时候,也能够有效率地发现有重叠的图像。在无序图像数据集上的实验结果揭示了,提出的方法比最新的算法快了三倍并且得到的匹配结果对于鲁棒SfM是足够高质量的。

图片

大规模SfM高效的基于共视的图像匹配

状态估计

状态估计方面本周共推送1篇文章。

这篇文章提出了一种用于恢复微飞行器的高度、平移速度和方向的响应式导航策略。其主要贡献基于在单一平面场景的假设下,将惯性测量单元(IMU)测量与单目反馈直接紧密的融合。采用迭代扩展卡尔曼滤波(IEKF)方案,状态预测使用IMU读数,而状态更新直接以光度反馈作为测量值。与基于特征的方法不同,新引入的光度差异在单个步骤中呈现出固有且鲁棒的数据关联过程。

图片

基于迭代扩展卡尔曼滤波的直接视觉惯性自我运动估计

轨迹预测

轨迹预测方面本周共推送1篇文章。

这篇文章指出,由于未来轨迹的非线性、多模态和固有的不确定性,预测人类长期动作是一项具有挑战性的任务。Agents的底层场景和过去的运动可以为预测其未来的运动提供有用的线索。然而,两种输入的异质性使得学习场景和过去轨迹的联合具有挑战性。为了应对这一挑战,该文提出了一种基于网格表示的模型来预测Agents的轨迹。

图片

基于Agent为中心的时空网格的符合场景的轨迹预测方法

视觉定位

视觉定位方面本周共推送1篇文章。

在这篇文章中,作者提出了一种基于卷积神经网络(CNN)的方法,可用于跨越巨大外观变化的视觉定位,如灾前和灾后的情形。文中的方法致力于解决两个关键挑战:(1)为了降低传统CNN方法中基于场景纹理的偏差,模型通过对风格化图像进行训练来学习基于形状的表示;(2)为了让模型对布局的变化更加鲁棒,使用查询图像的估计主平面作为近似场景坐标。

图片

在极端变化的条件下学习基于形状的视觉定位表示

图片

如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号(paopaorobot_slam)

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.

泡泡论坛:http:///bbs/

图片

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多