分享

ICCV 2017奖项公布:最大赢家何恺明获最佳论文,参与最佳学生论文

 taotao_2016 2017-10-25

机器之心报道

参与:李亚洲、李泽南

当地时间 10 月 22 日,两年一度的计算机视觉国际顶级会议 International Conference on Computer Vision(ICCV 2017)在意大利威尼斯开幕。今日,大会公布了本届 ICCV 的获奖论文,Facebook AI 研究员何恺明获得最佳论文奖,同时是最佳学生论文的作者之一。算上此前在 CVPR 2009、CVPR 2016 上的两篇「最佳论文」,何恺明现在已获得了四个最佳论文称号。



国际计算机视觉大会(ICCV)全称是 IEEE International Conference on Computer Vision,由 IEEE 主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议。但不同于 CVPR 与 ECCV,ICCV 在世界范围内每两年召开一次。本届 ICCV 会议在意大利城市威尼斯举办。


据统计,本届 ICCV 共收到 2143 篇论文投稿,其中 621 篇被选为大会论文,录用比例 29%。其中有 45 篇口头报告(Oral)和 56 篇亮点报告(Spotlight)。大会公开的信息显示,本届共有 3107名参会者。


今天上午,ICCV 2017 公布了本届大会获奖论文。Facebook 人工智能实验室何恺明等人论文《Mask R-CNN》获得最佳论文、Facebook 论文《Focal Loss for Dense Object Detection》获得最佳学生论文奖。


同时,大会还公布了终身成就奖、杰出研究奖、Everingham 团队奖等奖项。值得一提的是,Facebook 贾扬清带领的 Caffe 团队获得了 Everingham Prize。该奖项是授予那些对计算机视觉社区作出无私贡献的研究团队或研究员。


以下,机器之心将对此届获奖论文进行摘要介绍。


最佳论文(Marr Prize)


论文《Mask R-CNN》,第一作者何恺明。(参见 学界 | Facebook 新论文提出通用目标分割框架 Mask R-CNN:更简单更灵活表现更好



论文链接:https:///abs/1703.06870


我们提出了一个概念上简单、灵活和通用的用于目标实例分割(object instance segmentation)的框架。我们的方法能够有效地检测图像中的目标,同时还能为每个实例生成一个高质量的分割掩码(segmentation mask)。这个方面被称为 Mask R-CNN,是在 Faster R-CNN 上的扩展——在其已有的用于边界框识别的分支上添加了一个并行的用于预测目标掩码的分支。Mask R-CNN 的训练很简单,仅比 Faster R-CNN 多一点计算开销,运行速度为 5 fps。此外,Mask R-CNN 可以很容易泛化到其它任务,比如,让我们可以在同一个框架中估计人类的姿态。我们在 COCO 难题套件的所有 3 种任务(track)上都得到了最佳结果,其中包括实例分割、边界框目标检测和人物关键点检测(person keypoint detection)。没有使用其它的技巧,Mask R-CNN 的表现超越了在每个任务上所有已有的单个模型,包括 COCO 2016 挑战赛的获胜模型。我们希望我们的简单又有效的方法能成为一个坚实的基础,能帮助简化实例层面识别的未来研究。我们将会公开相关代码。


最佳学生论文


最佳学生论文的第一作者 Tsung-Yi Lin 博士毕业于康乃尔大学纽约理工学院,这是他在 Facebook 工作时进行的研究。Tsung-Yi Lin 最著名的工作是他在微软期间提出的 Coco 数据集(论文:《Microsoft coco: Common objects in context》)。目前,Lin 加入了 Google Brain 任研究科学家。


论文《Focal Loss for Dense Object Detection》



目前准确度最高的物体检测器是基于 R-CNN 影响的两步方法,其中一个分类器被用于处理稀疏的候选目标位置集合。相比之下,一步检测器可以应用在密集候选目标位置的检测中,具有更快捷、更简便的潜力,但此前一直没有匹配两步检测器的准确度。


在本论文中,我们探究了这种情况的原因。我们发现,在训练密集检测器时,极度前端-后端类不平衡是问题的主要原因。我们提出通过重塑标准交叉熵损失来解决这一类不平衡,以降低分配给分类范例的损失。我们提出的全新 Focal Loss 方法集中于稀疏、困难的样例中的训练,避免了训练过程中可能出现的大量负面因素。为了评估新损失函数的有效性,我们设计和训练一个简单的密度检测器——RetinaNet。我们的研究结果表明,当使用 Focal Loss 进行训练时,RetinaNet 可以达到此前一步检测器的速度,同时准确性高于业内最佳的两步检测器。


除了最佳论文与最佳学生论文,大会还公布了 Honorable Mentions、终身成就奖、杰出研究奖、Everingham Prize、Helmholtz 经典论文奖这些奖项的获奖论文与个人,分别如下:


Honorable Mentions


  • 论文:First-Person Activity Forecasting with Online Inverse Reinforcement Learning

作者:N. Rhinehart, K. Kitani(卡耐基梅隆大学)

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多