分享

24号-微软提出CLIPBERT:通过稀疏采样的视频语言学习

 小白学视觉 2021-02-24

重磅干货,第一时间送达


小白导读

论文是学术研究的精华和未来发展的明灯。小白决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容。个人能力有限,理解难免出现偏差,建议对文章内容感兴趣的读者,一定要下载原文,了解具体内容。


摘要

视频和语言学习(例如,视频问答)的规范方法规定了一个神经模型,该模型可以从脱机提取的视觉模型中的密集视频特征和语言模型中的文本特征中学习。这些特征提取器是独立训练的,通常用于不同于目标域的任务,使得这些固定的特征对于下游任务来说不是最优的。此外,由于密集视频特征的高计算过载,通常很难(或不可行)将特征提取器直接插入现有方法中以便进行微调。为了解决这一难题,作者提出了一个通用框架CLIPBERT,该框架通过使用稀疏采样,在每个训练步骤中只使用一个或几个稀疏采样的视频短片段,从而为视频和语言任务提供了负担得起的端到端学习。实验text-to-video检索和视频问答6个数据证明CLIPBERT优于与(或)现有的方法,利用完整的视频,这表明端到端学习几个稀疏采样剪辑往往比使用更精确的人口从完整的视频中提取离线特性,证明了众所周知的less-is-more原则。数据集中的视频来自不同的领域和长度,从3秒的通用域GIF视频到180秒的YouTube人类活动视频,显示了作者方法的泛化能力。提供了全面的消融研究和彻底的分析,以剖析导致这种成功的因素。

代码链接:https://github.com/jayleicn/ClipBERT

论文创新点

作者的贡献有三方面:

(i)作者提出了CLIPBERT,一种新的端到端学习框架,用于视频+语言任务。实验表明,在不同的视频文本任务(平均视频长度从几秒到三分钟不等)中,CLIPBERT获得了优于现有方法的性能。

(ii)作者的研究表明,少即是多:提出的端到端训练策略使用单个或几个(较少)稀疏采样的视频片段通常比使用密集提取视频特征的传统方法更精确。

(iii)作者证明了图像-文本预训练有利于视频-文本任务。作者还提供了全面的消融研究,揭示了导致CLIPBERT成功的关键因素,以期启发更多的未来工作。

框架结构

CLIPBERT架构概述。为简单起见,作者只展示了对单个采样剪辑产生预测的示例。当使用多个剪辑时,他们的预测融合在一起作为最终预测。

实验结果

结论

作者提出了一种端到端视频和语言学习的通用框架CLIPBERT,该框架采用稀疏采样,在每个训练步骤中只使用少量采样的视频短片段。在不同的任务中进行的实验表明,CLIPBERT的性能优于(或与)最先进的方法,具有密集的离线采样特征,这表明少即是多的原则在实践中是非常有效的。综合消融研究揭示了导致这种成功的几个关键因素,包括稀疏采样、端到端训练和图像-文本预训练。

论文链接:https:///pdf/2102.06183.pdf

每日坚持论文分享不易,如果喜欢我们的内容,希望可以推荐或者转发给周围的同学。

- END -

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多