@xwzhong 推荐 #Attention Mechanism 本文来自 LinkedIn,这是一篇 NLP 领域 Attention model 的综述文章,论文详细介绍了不同架构的网络与 Attention 的结合、Attention如何提高模型的可解释性和 Attention 的应用。 ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2944 @paperweekly 推荐 #Relation Classification 本文是清华大学刘知远老师组发表于 AAAI 2019 的工作,论文提出文本与图像的一大区别在于其多样性和噪音更大,并提出了一种基于混合注意力的原型网络结构。 具体来说,作者首先使用 instance-level 的 attention 从支撑集中选出和 query 更为贴近的实例,同时降低噪声实例所带来的影响。然后 feature-level 的实例能够衡量特征空间中的哪些维度对分类更为重要,从而为每种不同的关系都生成相适应的距离度量函数,从而使模型能够有效处理特征稀疏的问题。 ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2926 源码链接 https://github.com/thunlp/HATT-Proto @paperweekly 推荐 #Contextual Representations 本文是华盛顿大学和 AllenAI 发表于 NAACL 2019 的工作,论文主要研究的问题是预训练词表示的语言知识和可迁移性。作者探索了不同上下文表示的语言知识及其可迁移性,并且还基于 Transformer 模型,将不同层的输出标量加以混合取得了更好的效果。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2956 源码链接 https://github.com/nelson-liu/contextual-repr-analysis @boom 推荐 #Neural Machine Translation 本文是 CMU 发表于 NAACL 2019 的工作。模仿人类从简单的知识学习到复杂知识的学习方式,NMT 方向提出了一个从学习简单的语句翻译到复杂语句翻译的框架,能够在翻译速度上提升百分之 70,BLEU 的得分提高 2.2 个点。 本文提出了学习语句的难度和机器的学习能力两个概念,使得机器只学习难度低于其能力的语句的翻译,然后逐步提升难度;主要应用于数据的预处理上面,所以可以应用于各种 NMT 模型上。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2950 @jingyihiter 推荐 #Text Generation 本文是阿里巴巴发表于 ICASSP 2019 的工作。为了提高生成文本多样性、解决传统 CVAE 中的 KL 散度 vanish 问题,本文提出了一个直接的优化目标,此优化目标指导编码器变成最优编码器增强模型的表达能力。 该方法全称为自标注 CVAE (self labeling CVAE),文中给出了一个“一对多”(生成多种文本)的数据集,实验表明在两个数据集(开放域对话生成和推荐系统句子生成)上与 SOTA 算法相比提高了生成文本的多样性。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2919 @SRIN 推荐 #Graph Embeddings 本文是 CMU、NYU、FAIR 和 Google 发表于 NeurIPS 2018 的工作,论文的主要贡献在于将学习特征之间的关系图作为迁移学习 representation。 作者研究的是迁移学习中的表示问题,学习用表征两个元素之间的关系的图表示,而不是用特征向量表示。作者提出了一种新的无监督隐藏图学习框架,从大规模的未标记数据中训练一个神经网络来输出隐藏图型,并将该网络迁移到提取下游任务的图结构来加强对它的训练。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2911 源码链接 https://github.com/YJHMITWEB/GLoMo-tensorflow @O3oBigFace 推荐 #Multimodal Machine Learning 本文是 CMU 发表于 TPAMI 2019 的综述性文章,不同于以往对多模态学习的分类,将多模态的近期研究成果按照应用类型划分。对其中的每一种分类进行了详细的描述。本文是近期多模态领域中最详细最完整最新颖的一篇综述,可以看出 CMU 在 multimodal 这方面的造诣很深。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2868 @xiaotian311 推荐 #Object Tracking 本文是林雪平大学、ETH 和起源人工智能研究院发表于 CVPR 2019 的工作,论文着眼于解决目标跟踪过程中的定位精度不够问题。作者将目标跟踪分为目标分类和目标评价两个网络部分,前者分类用于粗定位,后者用于精细定位,即两阶段跟踪。 目标估计网络使用了 ECCV 2018 的 IoUNet 结构,基于大数据集离线训练,训练时最大化与 gt 的 IoU;目标分类网络使用了深度回归网络结构,由两层卷积层构成,在线训练,根据输出的 map 选择候选框交给目标估计网络,并且提出了新的快速在线训练方法。实验表明,本文方法的性能超过了 DaSiamRPN,GPU 下达到 30 fps。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2923 源码链接 https://github.com/visionml/pytracking @danieljf24 推荐 #Video Retrieval 本文是浙江工商大学、人民大学、浙江大学和阿里巴巴发表于 CVPR 2019 的工作,论文主要探讨零示例视频检索。在这种检索范例中,用户在没有示例的情况下,仅通过自然语句描述其即席查询需求。考虑到视频是帧序列而查询是词序列,我们需要建立一个有效的序列到序列的跨模态匹配。 现有方法以基于概念为主,通过分别从查询和视频中提取相关概念,从而建立两种模态之间的关联。相比之下,本文采用了一种无需概念建模的方法,提出对偶深度编码网络,首次使用具有相似架构的多层编码网络同时对句子和视频进行量化编码和表示学习,在多个极具挑战性的评测集(MSR-VTT,TRECVID 2016和2017 Ad-hoc Video Search)上超过了现有结果。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2921 源码链接 https://github.com/danieljf24/dual_encoding @Kralkatorrik 推荐 #Face Recognition 本文来自京东和中科院自动化所。人脸识别中有两种常见的从 loss 方面促进 feature discriminative 的方法:mining-based 和 margin-based 损失函数,这两种方法都存在其局限性。这篇文章提出了 SV-Softmax loss 能够将两种方法结合,并弥补他们的缺陷,在各个数据集上都取得了 SOTA 的效果。 ![]() ![]() ![]() ![]() 论文链接 https://www./papers/2872 源码链接 https://github.com/tiandunx/SV-X-Softmax @CLAYxxliu 推荐 #Generative Adversarial Networks 当前现有的很多 GAN 结构在训练的时候并不稳定,很容易就会发生模式崩塌的现象。在本文文中,作者提出一个新颖 GAN 框架称为进化对抗网络(E-GAN)。 该框架摒弃了单一的生成器的设定,将生成器当做一个族群,每个单个的生成器就是一个体,而每个个体的变异的方式是不同的。作者利用一种评价机制来衡量生成的样本的质量和多样性,这样只有性能良好的生成器才能保留下来,并用于进一步的培训。 通过这种方式,E-GAN 克服了个体对抗性训练目标的局限性,始终保留了对 GANs 的进步和成功做出贡献的最佳个体。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2904 源码链接 https://github.com/WANG-Chaoyue/EvolutionaryGAN @shoujin 推荐 #Recommender Systems 本文是第一篇全面深入总结 session-based recommendations 的综述文章,值得推荐。文章系统总结了目前一种新型推荐范式:session-based recommendations 的特点、挑战和目前取得的进展,对整个推荐系统研究领域和相关的工业界人员提供了一个全面了解推荐系统领域最新研究进展的机会。 该文从问题本质和相关的数据特征入手,为 session-based recommendations 建立了一个层次化模型来深入理解里面存在的各种数据复杂性和潜在挑战,然后采用了两个不同维度对现有研究成果进行了系统分类和总结,最后提出了展望。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2884 @Xiaoha0607 推荐 #Search Ranking 本文来自 Airbnb,论文主要介绍了 Airbnb 搜索排序系统的演进以及深度学习的应用。文章给出了深度学习在搜索目标问题的实践经验谈,尤其在特征工程、特征重要性分析方面有很多 insight 值得借鉴。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2952 @Glimmer123 推荐 #Continual Lifelong Learning 本文来自汉堡大学、罗彻斯特理工大学和赫瑞-瓦特大学,论文详细介绍了持续终身学习领域相关概念(比如灾难性遗忘),总结三个主要的研究领域,是持续终身学习领域比较好的综述。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2934 @QAQ 推荐 #Convolutional Neural Network 本文来自 Facebook AI、新加坡国立大学和奇虎 360,论文提出 OctConv 用于压缩低频信息,分别处理高低频两个部分的数据,并在二者之间进行信息交换,从而减少卷积运算对存储和计算量的消耗。替代传统卷积,在提升效果的同时,节约计算资源的消耗。即插即用,无需修改原来的网络架构,不用调整超参数。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2954 源码链接 https://github.com/terrychenism/OctaveConv/ @NeoTheSunshine 推荐 #Graph Embeddings 本文通过实验证明,现有的 GNN 及其相关变体仍然存在对图结构表达能力不足的问题。为了进一步提升模型的表达能力,作者提出一种带有 gating mechanism 的辅助模块 Graph Warp Module,它可以通用使用在 GNN 上而无须改变原有模型结构。通过实验证明了可以使用带有 GWM (Graph Warp Module) 的 GNN 来达到 state-of-the-art generalization performance。 ![]() ![]() ![]() ![]() ▲ 论文模型:点击查看大图 论文链接 https://www./papers/2881 |
|
来自: LibraryPKU > 《TodayPapers》