Paper King——专注学术论文服务 本届 ACL 共接收论文 779 篇,接收率 25.2%。 ACL 2020 论文列表 地址: https://www./anthology/events/acl-2020/ NLP 的机器学习、对话和交互技术、机器翻译、信息提取和 NLP 应用是前五个最受欢迎的研究方向,每个方向都有超过 200 个提交。 ACL 2020 Tutorial T1: 神经NLP的可解释性与分析 Interpretability and Analysis in Neural NLP (cutting-edge) Organizers: Yonatan Belinkov, Sebastian Gehrmann and Ellie Pavlick 虽然深度学习已经改变了自然语言处理(NLP)领域,并影响了更大的计算语言学社区,但神经网络的兴起受到其不透明性质的影响:解释神经网络模型的内部工作并解释它们的行为是具有挑战性的。因此,在过去的几年里,越来越多的工作致力于分析和解释神经网络模型的NLP。这部分工作到目前为止还缺乏一个共同的框架和方法。此外,对初涉这一领域的人来说,分析现代神经网络可能很困难。 本教程旨在填补这一空白,并介绍NLP中神经网络的可解释性和分析这一新兴领域。本教程将介绍分析工作的主要内容,例如使用探测分类器的结构分析、行为研究和测试套件以及交互式可视化。将重点介绍最常用的分析方法,以及当前方法的具体局限性和不足之处,以便告知参与者今后的工作重点。 https://boknilev./nlp-analysis-methods/ T2: 多模态信息抽取 Multi-modal Information Extraction from Text, Semi-structured, and Tabular Data on the Web Organizers: Xin Luna Dong, Hannaneh Hajishirzi, Colin Lockard and Prashant Shiralkar 万维网以多种形式包含大量的文本信息:非结构化文本、基于模板的半结构化网页(以键-值对和列表的形式呈现数据)和表格。从这些资源中提取信息并将其转换为结构化形式的方法一直是自然语言处理(NLP)、数据挖掘和数据库社区研究的目标。虽然这些研究人员已经很大程度上根据数据的模态将web数据的提取分离到不同的问题中,但他们也面临着类似的问题,比如使用有限的标记数据进行学习,定义(或避免定义)本体,利用先验知识,以及针对web规模的缩放解决方案。 在本教程中,将从整体的角度来看待信息抽取,探索挑战中的共性,以及为解决这些不同形式的文本而开发的解决方案。 https://sites.google.com/view/acl-2020-multi-modal-ie T3: 回顾自然语言处理研究 Reviewing Natural Language Processing Research Organizers: Kevin Cohen, Karën Fort, Margot Mieskes and Aurélie Névéol T4: 风格化文本生成 Stylized Text Generation: Approaches and Applications Organizers: Lili Mou and Olga Vechtomova https://sites.google.com/view/2020-stylized-text-generation/tutorial T5: 多模态对话 Achieving Common Ground in Multi-modal Dialogue (Cutting-edge) Organizers: Malihe Alikhani and Matthew Stone https://github.com/malihealikhani/Grounding_in_Dialogue T6: 常识推理 Commonsense Reasoning for Natural Language Processing(Introductory) Organizers: Maarten Sap, Vered Shwartz, Antoine Bosselut, Yejin Choi, Dan Roth 常识,比如知道“撞到人会让人烦恼”或“下雨会让路滑”,可以帮助人们无缝地驾驭日常情况。然而,赋予机器这种类似人类的常识性推理能力,几十年来一直是人工智能研究的一个难以实现的目标。近年来,常识和推理重新受到自然语言处理(NLP)社区的关注,产生了自动化常识理解的探索性研究。组织本教程的目的是为研究人员提供在常识性表征和推理方面的关键基础和最新进展,以期为这一前景广阔的研究领域带来更光明的前景。 在教程中,将: (1)概述各种类型的常识(例如,物理的,社会的); (2)讨论收集和表示常识知识的技术,同时强调针对这类知识的特定挑战(例如,报告偏差); (3)讨论现代NLP系统捕获的常识知识类型(例如,大型预训练语言模型); (4)提出测量系统常识推理能力的方法; (5)讨论常识性推理可用于提高NLP任务性能的各种方法作为结束; (6)关于将常识性推理集成到下游任务的交互式会话。 https:///acl2020-commonsense T7: Integrating Ethics into the NLP Curriculum Organizers: Emily M. Bender, Dirk Hovy and Alexandra Schofield T8: Open-Domain Question Answering (Cutting-edge) Organizers: Danqi Chen and Scott Wen-tau Yih |
|