分享

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

 mrjiangkai 2024-05-10 发布于上海

Transformers 是由 Hugging Face 开发的一个强大的 NLP 工具包,支持加载目前市面上大部分的预训练模型。随着 BERT、GPT 等大规模语言模型的涌现,Transformers 库因其易用性和灵活性,被越来越多的公司和研究者选用来构建各类 NLP 应用。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

华盛顿大学发了一个电子书《Transformers 快速入门》教程,教程旨在帮助自然语言处理(NLP)初学者迅速掌握 Transformers 库的用法,并通过具体实例引导读者逐步构建自己的模型,以完成各种 NLP 任务。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

第一章:自然语言处理

自然语言处理 (NLP, Natural Language Processing) 又称为计算语言学,是一门借助计算机技术研究人类语言的科学。虽然 NLP 只有六七十年的历史,但是这门学科发展迅速且取得了令人印象深刻的成果。

在上手实践之前,我想先花点时间给大家介绍一下 NLP 的发展历史和 Transformer 模型相关的概念,这对于后期理解模型结构以及自己设计方法会有很大的帮助。

本章将带大家快速穿越 NLP 的发展史,见证从专家系统到 BERT 模型的巨大变化。

机器是否要理解语言?

自然语言处理六七十年的发展历程,基本可以分为两个阶段。

第一阶段:不懂语法怎么理解语言

上世纪 50 年代到 70 年代,人们对用计算机处理自然语言的认识都局限在人类学习语言的方式上,用了二十多年时间苦苦探寻让计算机理解语言的方法,最终却一无所获。

当时学术界普遍认为,要让机器完成 NLP 任务,首先必须让机器理解语言。因此分析语句和获取语义成为首要任务,而这主要依靠语言学家人工总结文法规则。特别是 60 年代基于乔姆斯基形式语言的编译器得到了很大的发展,更加鼓舞了人们通过概括语法规则来解决 NLP 问题的决心。

但是人类语言既复杂又灵活,仅靠手工编写的文法规则根本无法覆盖,规则之间还可能存在矛盾。毕竟与规范严谨的程序语言不同,自然语言是一种复杂的上下文有关文法,实际很难用计算机进行解析。

因此这一阶段,可以说自然语言处理的研究进入了一个误区。

第二阶段:只要看的足够多,就能处理语言

正如人类是通过空气动力学而不是通过模仿鸟类造出了飞机,事实上进行自然语言处理也未必要让机器完全理解语言。70 年代,随着统计语言学的提出,基于数学模型和统计的方法开始兴起,NLP 领域才在接下来的四十多年里取得了一系列突破。

当时,基于统计方法的核心模型是“通信系统加隐马尔可夫模型”,其输入和输出都是一维的符号序列,而且保持原有的次序(例如语音识别、词性分析),但是面对输出为二维树形结构的句法分析以及次序会有很大变化的机器翻译等任务,这种方法就难以解决了。

80 年代以来,随着硬件计算能力的不断提高,以及互联网发展产生的海量数据,越来越多的统计机器学习方法被应用到自然语言处理中。例如随着基于有向图的统计模型的发展,机器已经能够进行复杂的句法分析,2005 年 Google 基于统计方法的翻译系统更是全面超过了基于规则的 SysTran 系统。

基于神经网络方法的崛起

2006 年,随着 Hinton 表明深度信念网络可以通过逐层预训练策略有效地训练,基于神经网络和反向传播算法进行训练的深度学习方法开始兴起,越来越多之前由于缺乏数据、计算能力以及有效优化方法而被忽视的神经网络模型得到了复兴。

例如 1997 年就已提出的长短时记忆网络 (LSTM),直到如今,许多 LSTM 的变体依然在序列建模任务中广泛应用,包括工业界的许多自然语言处理模型。

随着越来越多 NLP 研究者将注意力转向深度学习方法,各种神经网络模型也被引入到自然语言处理任务中(例如循环网络 LSTM 和卷积网络 CNN)。2017 年,Google 在前人工作的基础上提出了 Attention 注意力模型,为大家提供了另一种编码思路,论文中提出的 Transformer 结构更是引导了后续 NLP 模型的发展。

今天,已经没有人会质疑基于统计的 NLP 方法,但基于规则的传统方法也依然有其存在的价值。近年来许多研究都尝试将传统语言学特征融入到神经网络模型中,将语言学的研究成果与深度学习方法相结合。

如何建模语言?

正如第一节所说,人类语言是一种上下文相关的信息表达方式,因此要让机器能够处理自然语言,首先就要为自然语言建立数学模型,这个模型被称为“统计语言模型”

统计语言模型的核心思想就是判断一个文字序列是否构成人类能理解并且有意义的句子(也就是判断一个句子是不是人话),这个问题曾经困扰了学术界很多年。

20 世纪 70 年代之前,研究者试图从文字序列是否合乎文法、含义是否正确的角度入手,最终伴随着难以穷尽以及越来越繁琐的规则,这个问题依然无法有效解决。直到 IBM 实验室的 Jelinek 为了研究语音识别问题换了一个思路,用一个非常简单的统计模型就解决了这个问题。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

NNLM

2003 年,Bengio 提出了神经网络语言模型 (NNLM, Neural Network Language Model),可惜它生不逢时,在之后的十年中都没有引起太大的反响。直到 2013 年,随着越来越多的研究使用深度学习模型进行 NLP 任务,NNLM 才被重新发掘,并成为使用神经网络建模语言的经典范例。

NNLM 的思路非常接近于前面介绍的统计语言模型,它通过输入前面的 �−1 个词来预测当前词。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)
华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

Word2Vec

真正将神经网络语言模型发扬光大的是 2013 年 Google 提出的 Word2Vec,这个模型提供的词向量在很长一段时间里都是 NLP 模型的标配,即使是后来出现的 Glove 模型也难掩它的光芒。

Word2Vec 的模型结构和 NNLM 基本一致,只是训练方法有所不同,分为 CBOW (Continuous Bag-of-Words) 和 Skip-gram 两种。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

其中 CBOW 使用待预测词语周围的词语 �(�−2),�(�−1),�(�+1),�(�+2) 来进行预测 �(�),Skip-gram 则正好相反,它使用当前词语 �(�) 来预测它的周围词语。

可以看到,与严格参照统计语言模型设计的 NNLM 不同(每个词语的出现概率只与它前面的词语有关),Word2Vec 在结构上更加自由,训练目标也更多地是为获得词向量服务。特别是其提出的同时通过上文和下文来预测当前词语的 CBOW 训练方法,打破了语言模型的固定思维,为后续一系列神经语言模型的发展奠定了基础。

虽然 Word2Vec 取得了巨大的成功,但是有一片乌云一直笼罩在词向量的上空——多义词问题。一词多义正是语言灵活性和高效性的体现,但 Word2Vec 却对此束手无策,无论词语的上下文如何,Word2Vec 对于一个词语只能提供一个词向量,即多义词被编码到了完全相同的参数空间。

而事实上,早在上世纪 90 年代初,Yarowsky 就给出了一个非常简单又有效的解决方案——运用词语之间的互信息。具体地,对于一个多义词,分别从大量文本中找出这个词在表示不同语义时,同时出现的互信息最大的一些词。当在判别词语语义时,只需要看看上下文中哪些词语出现的多就可以了,即通过上下文来判断这个词语当前表达的语义。

香农与信息论

1948 年,香农 (Claude Elwood Shannon) 在他著名的论文《通信的数学原理》中提出了“信息熵”的概念,解决了信息的度量问题,并且量化出信息的作用。上面提到的互信息就来自于信息论。

如果你对此感兴趣,可以阅读我的博文《信息的度量和作用:信息论基本概念》。

因此,在后来的几年中,标准 NLP 流程都是将 Word2Vec 预训练好的词向量作为模型的输入,然后通过 LSTM、CNN 等模型来重新对句子中的词语进行编码,以便捕获到词语的上下文信息。

ELMO

2018 年 ELMO 模型的提出,直接在词向量端给出了一种简洁优雅的解决方案。与 Word2Vec 训练好之后就固定了的静态词向量不同,ELMO 会自动地根据词语的上下文信息去动态调整词语的词向量,因此自然就解决了多义词问题。

具体地,ELMO 首先利用语言模型进行预训练,然后在实际使用时,从预训练网络中提取各层的词向量拼接起来作为新的词向量。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

ELMO 采用双层双向 LSTM 作为网络结构,从两个方向编码词语的上下文信息来进行预测,相当于将编码层直接封装到了语言模型中。训练完成后不仅学习到了词语的词向量,还训练好了一个双层双向的 LSTM 网络结构。对于每个词语,可以从第一层 LSTM 中得到包含句法信息的词向量,从第二层 LSTM 中得到包含语义信息的词向量……最终通过加权求和就可以得到每一个词语最终的词向量。

但是 ELMO 也依然存在缺陷,首先它使用 LSTM 作为编码器,而不是特征提取能力更强的 Transformer,其次直接通过拼接来融合双向抽取特征的方法也不够优美。

随后将 ELMO 中的 LSTM 更换为 Transformer 的 GPT 模型也很快出现了。但是 GPT 又再次追随了 NNLM 的脚步,只通过词语的上文来进行预测,这在很大程度上限制了模型的应用场景。例如阅读理解这种任务,如果预训练时候不把词语的下文嵌入到词向量中,会白白丢掉很多信息。

BERT

2018 年底随着 BERT 的提出,这一阶段神经语言模型的发展终于出现了一位集大成者,它在 11 个 NLP 任务上都达到了最好性能。

BERT 在模型大框架上采用和 GPT 完全相同的两阶段模型,首先是语言模型预训练,然后使用微调模式解决下游任务。BERT 不仅像 GPT 模型一样采用 Transformer 作为编码器,而且在预训练阶段采用了类似 ELMO 的双向语言模型。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

因此 BERT 不仅编码能力强大,而且对各种下游任务,Bert 都可以简单地通过改造输入输出部分来完成。但是 BERT 的优点同样也是它的缺陷,由于 BERT 构建的是双向语言模型,因而无法直接用于文本生成任务。

小结

可以看到,从 2003 年 NNLM 模型提出时的无人问津,到 2018 年底 BERT 模型几乎在所有任务上横扫 NLP 领域,神经网络语言模型的发展也经历了漫长的时间。

在这段时间里,许多研究者一直在不断地努力,对前人的工作进行改进,这才迎来了 BERT 的成功。BERT 的出现并非一蹴而就,它不仅借鉴了 ELMO、GPT 等模型的结构与框架,更是延续了 Word2Vec 提出的 CBOW 的思想,是这一阶段神经语言模型发展的集大成者。

未来路在何方?

BERT 模型取得成功之后, NLP 研究者们并没有停下脚步,例如 MASS、ALBERT、RoBERTa 等都在 BERT 的基础上进行了某个方向的改良。

其中微软提出的 UNILM (UNIfied pretrained Language Model) 就是其中一个典型的代表,它把 BERT 的 MASK 机制运用到了一个很高的水平。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

UNILM 通过给 Transformer 中 Self-Attention 添加不同的 MASK 矩阵,可以在不改变 BERT 模型结构的基础上,同时实现双向、单向和 Seq2Seq 的语言模型,是一个对 BERT 进行扩展的优雅方案。

在 BERT 取得巨大成功的鼓舞下,正在有越来越多的机构和研究者加入这一领域,目前 HuggingFace Hub 上托管的各种预训练语言模型已经有八万多个,相信在未来还会有更多高效神经语言模型出现。

因字数限制,需要PDF版,查看下方图片领取哦。

华盛顿大学终于把Transformer一次性搞懂了!(大模型版)

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多