This commit is contained in:
erenup 2021-08-29 23:10:59 +08:00
parent 2d4cad92a7
commit d29d32da89
1 changed files with 87 additions and 165 deletions

View File

@ -1,120 +1,130 @@
## 图解BERT
在学习完Transformer之后我们来学习一下将Transformer模型结构发扬光大的一个经典模型BERT。
# 图解BERT
在学习完2.2章节的Transformer之后我们来学习一下将Transformer模型结构发扬光大的一个经典模型BERT。
![结构总览](./pictures/3-stru.png)图:结构总览
站在2021年来看2018年是自然语言处理技术的一个转折点运用深度学习技术处理文本的能力通过预训练模型被极大的发挥了出来。同时伴随着NLP开源社区的贡献很多强大的模型被封装成组件让NLP初学者也有机会在各种NLP任务上取得非常好的效果。在众多NLP预训练模型里最经典的基本就是BERT和GPT了因此本文将开始对BERT单篇文章的citation已经接近2万的学习。
## 前言
BERT在2018年出现。2018 年是机器学习模型处理文本(或者更准确地说,自然语言处理或 NLP的转折点。我们对这些方面的理解正在迅速发展如何最好地表示单词和句子从而最好地捕捉基本语义和关系此外NLP 社区已经发布了非常强大的组件,你可以免费下载,并在自己的模型和 pipeline 中使用(今年可以说是 NLP 的 ImageNet 时刻,这句话指的是多年前类似的发展也加速了 机器学习在计算机视觉任务中的应用)。
BERT在2018年被剔除BERT模型一出现就打破了多个自然语言处理任务的最好记录。BERT的论文发布不久后BERT团队公开了模型的代码并提供了基于大规模新书预训练完成的模型下载。BERT的模型代码和模型参数的开源使得任何一个NLP从业者都可以基于这个强大的模型组件搭建自己的NLP系统也节省了从零开始训练语言处理模型所需要的时间、精力、知识和资源。
![BERT-ELMo-ULM-FIT](./pictures/3-bert-elmo.png)图BERT-ELMo-ULM-FIT
ULM-FiT 与 Cookie Monster饼干怪兽无关。但我想不出别的了...
BERT的发布是这个领域发展的最新的里程碑之一这个事件标志着NLP 新时代的开始。BERT模型打破了基于语言处理的任务的几个记录。在 BERT 的论文发布后不久,这个团队还公开了模型的代码,并提供了模型的下载版本,这些模型已经在大规模数据集上进行了预训练。这是一个重大的发展,因为它使得任何一个构建构建机器学习模型来处理语言的人,都可以将这个强大的功能作为一个现成的组件来使用,从而节省了从零开始训练语言处理模型所需要的时间、精力、知识和资源。
那么BERT具体干了一件什么事情呢如下图所示BERT首先在大规模无监督语料上进行预训练然后在预训练好的参数基础上增加一个与任务相关的神经网络层并在该任务的数据上进行微调训最终取得很好的效果。BERT的这个训练过程可以简述为预训练+微调finetune已经成为最近几年最流行的NLP解决方案的范式。
![BERT训练和微调](./pictures/3-bert.webp)图BERT训练和微调
BERT 开发的两个步骤:第 1 步,你可以下载预训练好的模型(这个模型是在无标注的数据上训练的)。然后在第 2 步只需要关心模型微调即可。
## BERT应用
要想很好的理解BERT最好先理解一下BERT的使用场景明确一下输入和输出最后再详细学习BERT的内在模型结构和训练方法。因此在介绍模型本身涉及的BERT相关概念之前让我们先看看如何直接应用BERT。
- 下载在无监督语料上预训练好的BERT模型一般来说对应了3个文件BERT模型配置文件用来确定Transformer的层数隐藏层大小等BERT模型参数BERT词表BERT所能处理的所有token
- 针对特定任务需要在BERT模型上增加一个任务相关的神经网络比如一个简单的分类器然后在特定任务监督数据上进行微调训练。微调的一种理解学习率较小训练epoch数量较少对模型整体参数进行轻微调整
### 句子分类
你需要注意一些事情,才能理解 BERT 是什么。因此,在介绍模型本身涉及的概念之前,让我们先看看如何使用 BERT。
## 句子分类
使用 BERT 最直接的方法就是对一个句子进行分类。这个模型如下所示:
![BERT句子分类](./pictures/3-bert-cls.png)图BERT句子分类
为了训练这样一个模型,你主要需要训练分类器(上图中的 Classifier在训练过程中 几乎不用改动BERT模型。这个训练过程称为微调它起源于Semi-supervised Sequence Learning 和 ULMFiT。
由于我们在讨论分类器,这属于机器学习的监督学习领域。这意味着我们需要一个带有标签的数据集来训练这样一个模型。例如,在下面这个垃圾邮件分类器的例子中,带有标签的数据集包括一个邮件内容列表和对应的标签(每个邮件是“垃圾邮件”或者“非垃圾邮件”)。
先来看一下如何使用BERT进行句子分类
假设我们的句子分类任务是判断一个邮件是“垃圾邮件”或者“非垃圾邮件”如下图所示。当然除了垃圾邮件判断也可以是其他NLP任务比如
- 输入:电影或者产品的评价。输出:判断这个评价是正面的还是负面的。
- 输入:两句话。输出:两句话是否是同一个意思。
![垃圾邮件分类](./pictures/3-trash.png)图:垃圾邮件分类
其他一些例子包括:
如下图所示为了能够使用BERT进行句子分类我们在BERT模型上增加一个简单的classifier层由于这一层神经网络参数是新添加的一开始只能随机初始化它的参数所以需要用对应的监督数据来训练这个classifier。由于classifier是连接在BERT模型之上的训练的时候也可以更新BERT的参数。
1 语义分析
![BERT句子分类](./pictures/3-bert-cls.png)图BERT句子分类
- - 输入:电影或者产品的评价。输出:判断这个评价是正面的还是负面的。
数据集示例SST https://nlp.stanford.edu/sentiment
2Fact-checking
### 模型结构
- 输入:一个句子。输出:这个句子是不是一个断言
- 参考视频https://www.youtube.com/watch?v=ddf0lgPCoSo
## 模型架构
现在你已经通过上面的例子,了解了如何使用 BERT接下来让我们更深入地了解一下它的工作原理。
通过上面的例子了解了如何使用BERT接下来让我们更深入地了解一下它的工作原理。BERT原始论文提出了BERT-base和BERT—large两个模型base的参数量比large少一些可以形象的表示为下图的样子。
![BERT base和large](./pictures/3-bert-bl.webp)图BERT base和large
论文里介绍了两种不同模型大小的 BERT
- BERT BASE - 与 OpenAI 的 Transformer 大小相当,以便比较性能
- BERT LARGE - 一个非常巨大的模型,它取得了最先进的结果
回顾一下篇章2.2的TransformerBERT模型结构基本上就是Transformer的encoder部分BERT-base对应的是12层encoderBERT-large对应的是24层encoder。
BERT 基本上是一个训练好的 Transformer 的 encoder 的栈。关于 Transformer 的介绍,可以阅读之前的文章[《 图解Transformer完整版》](https://github.com/datawhalechina/transformers-quick-start-zh/blob/main/transformer%E5%9F%BA%E6%9C%AC%E5%8E%9F%E7%90%86%E8%AE%B2%E8%A7%A3/2-%E5%9B%BE%E8%A7%A3transformer.md),这里主要介绍 Transformer 模型,这是 BERT 中的一个基本概念。此外,我们还会介绍其他一些概念。
![BERT encoder](./pictures/3-bert-encoder.webp)图BERT-base为12层的encoder
2 种不同大小规模的 BERT 模型都有大量的 Encoder 层(论文里把这些层称为 Transformer Blocks- BASE 版本由 12 层 EncoderLarge 版本有 20 层 Encoder。同时这些 BERT 模型也有更大的前馈神经网络(分别有 768 个和 1024 个隐藏层单元)和更多的 attention heads分别有 12 个和 16 个),超过了原始 Transformer 论文中的默认配置参数(原论文中有 6 个 Encoder 层, 512 个隐藏层单元和 8 个 attention heads
### 模型输入
## 模型输入
接着看一下模型的输入和输出BERT模型输入有一点特殊的地方是在一句话最开始拼接了一个[CLS] token如下图所示。这个特殊的[CLS] token经过BERT得到的向量表示通常被用作当前的句子表示。除了这个特殊的[CLS] token其余输入的单词类似篇章2.2的Transformer。BERT将一串单词作为输入这些单词多层encoder中不断向上流动每一层都会经过 Self-Attention和前馈神经网络。
![模型输入](./pictures/3-bert-input.png)图:模型输入
第一个输入的 token 是特殊的 [CLS],它 的含义是分类class的缩写
### 模型输出
就像 Transformer 中普通的 Encoder 一样BERT 将一串单词作为输入,这些单词在 Encoder 的栈中不断向上流动。每一层都会经过 Self Attention 层,并通过一个前馈神经网络,然后将结果传给下一个 Encoder。
![BERT encoder](./pictures/3-bert-encoder.webp)图BERT encoder
在模型架构方面,到目前为止,和 Transformer 是相同的除了模型大小因为这是我们可以改变的参数。我们会在下面看到BERT 和 Transformer 在模型的输出上有一些不同。
## 模型输出
每个位置输出一个大小为 hidden_size在 BERT Base 中是 768的向量。对于上面提到的句子分类的例子我们只关注第一个位置的输出输入是 [CLS] 的那个位置)。
BERT输入的所有token经过BERt编码后会在每个位置输出一个大小为 hidden_size在 BERT-base中是 768的向量。
![BERT output](./pictures/3-bert-output.png)图BERT output
这个输出的向量现在可以作为后面分类器的输入。论文里用单层神经网络作为分类器,取得了很好的效果
对于上面提到的句子分类的例子我们直接使用第1个位置的向量输出对应的是[CLS]传入classifier网络然后进行分类任务如下图所示。
![BERT 接分类器](./pictures/3-bert-clss.webp)图BERT 接分类器
如果你有更多标签(例如你是一个电子邮件服务,需要将邮件标记为 “垃圾邮件”、“非垃圾邮件”、“社交”、“推广”),你只需要调整分类器的神经网络,增加输出的神经元个数,然后经过 softmax 即可。
## 与卷积神经网络进行对比
### 预训练任务Masked Language Model
对于那些有计算机视觉背景的人来说,这个向量传递过程,会让人联想到 VGGNet 等网络的卷积部分,和网络最后的全连接分类部分之间的过程。
知道了模型输入、输出、Transformer结构那么BERT是如何无监督进行训练的呢如何得到有效的词、句子表示信息呢以往的NLP预训练通常是基于语言模型进行比如给定语言模型的前3个词让模型预测第4个词。但是BERT是基于Masked language model进行预训练的将输入文本序列的部分15%单词随机Mask掉让BERT来预测这些被Mask的词语。如下图所示
![BERT mask](./pictures/3-bert-mask.webp)图: BERT mask
这种训练方式最早可以追溯到Word2vec时代典型的Word2vec算法便是基于词C两边的A、B和D、E词来预测出词C。
### 预训练任务:相邻句子判断
除了masked language modelBERt在预训练时还引入了一个新的任务判断两个句子是否是相邻句子。如下图所示输入是sentence A和sentence B经过BERT编码之后使用CLS token的向量表示来预测两个句子是否是相邻句子。
![2个句子任务](./pictures/3-bert-2sent.webp)图: 2个句子任务
注意事项为了本文的描述方便在前面的叙述中均省略了BERT tokenize的过程但读者朋友需要注意BERT实际上使用的是WordPieces作为最小的处理单元采用的是wordpiece算法分词token而不是使用单词本身。在 WordPiece中有些词会被拆分成更小的部分。关于WordPiece分词本文不过多展开感兴趣的读者可以阅读和学习[subword tokenizer](https://towardsdatascience.com/a-comprehensive-guide-to-subword-tokenisers-4bbd3bad9a7c)。另外判断两个句子是否相邻这个任务再后来的研究中逐渐被淡化了比如roberta模型在被提出的时候就不再使用该任务进行预训练了。
### BERT的应用
BERT论文展示了BERT在多种任务上的应用如下图所示。可以用来判断两个句子是否相似判断单个句子的情感用来做抽取式问答用来做序列标注。
![BERT应用](./pictures/3-bert-app.png)图: BERT应用
### BERT特征提取
由于BERT模型可以得到输入序列所对应的所有token的向量表示因此不仅可以使用最后一程BERT的输出连接上任务网络进行微调还可以直接使用这些token的向量当作特征。比如可以直接提取每一层encoder的token表示当作特征输入现有的特定任务神经网络中进行训练。
![BERT特征提取](./pictures/3-bert-feature.png)图: BERT特征提取
那么我们是使用最后一层的向量表示,还是前几层的,还是都使用呢?下图给出了一种试验结果:
![BERT特征选择](./pictures/3-bert-fea.webp)图: BERT特征选择
## 拓展阅读
### 对比CNN
对于那些有计算机视觉背景的人来说根据BERT的编码过程会联想到计算机视觉中使用VGGNet等网络的卷积神经网络+全连接网络做分类任务,如下图所示,基本训练方法和过程是类似的。
![CNN](./pictures/3-cnn.png)图CNN
## 词嵌入Embedding的新时代
### 词嵌入Embedding进展
上面提到的这些新发展带来了文本编码方式的新转变。到目前为止,词嵌入一直是 NLP 模型处理语言的主要表示方法。像 Word2Vec 和 Glove 这样的方法已经被广泛应用于此类任务。在我们讨论新的方法之前,让我们回顾一下它们是如何应用的。
#### 回顾词嵌入
### 回顾词嵌入
单词不能直接输入机器学习模型,而需要某种数值表示形式,以便模型能够在计算中使用。通过 Word2Vec我们可以使用一个向量一组数字来恰当地表示单词并捕捉单词的语义以及单词和单词之间的关系例如判断单词是否相似或者相反或者像 "Stockholm" 和 "Sweden" 这样的一对词,与 "Cairo" 和 "Egypt"这一对词,是否有同样的关系)以及句法、语法关系(例如,"had" 和 "has" 之间的关系与 "was" 和 "is" 之间的关系相同)。
单词不能直接输入机器学习模型而需要某种数值表示形式以便模型能够在计算中使用。通过Word2Vec我们可以使用一个向量一组数字来恰当地表示单词并捕捉单词的语义以及单词和单词之间的关系例如判断单词是否相似或者相反或者像 "Stockholm" 和 "Sweden" 这样的一对词,与 "Cairo" 和 "Egypt"这一对词,是否有同样的关系)以及句法、语法关系(例如,"had" 和 "has" 之间的关系与 "was" 和 "is" 之间的关系相同)。
人们很快意识到,相比于在小规模数据集上和模型一起训练词嵌入,更好的一种做法是,在大规模文本数据上预训练好词嵌入,然后拿来使用。因此,我们可以下载由 Word2Vec 和 GloVe 预训练好的单词列表,及其词嵌入。下面是单词 "stick" 的 Glove 词嵌入向量的例子(词嵌入向量长度是 200
![wrod vector](./pictures/3-wordvector.webp)图: wrod vector
单词 "stick" 的 Glove 词嵌入 - 一个由200个浮点数组成的向量四舍五入到小数点后两位
单词 "stick" 的 Glove 词嵌入embedding向量表示一个由200个浮点数组成的向量四舍五入到小数点后两位
由于这些向量都很长,且全部是数字,所以在文章中我使用以下基本形状来表示向量:
![vector](./pictures/3-single-vector.png)图vector
![vector](./pictures/3-single-vector.png)
vector
### 语境问题
#### 语境问题
如果我们使用 Glove 的词嵌入表示方法,那么不管上下文是什么,单词 "stick" 都只表示为同一个向量。一些研究人员指出,像 "stick" 这样的词有多种含义。为什么不能根据它使用的上下文来学习对应的词嵌入呢?这样既能捕捉单词的语义信息,又能捕捉上下文的语义信息。于是,语境化的词嵌入模型应运而生。
如果我们使用 Glove 的词嵌入表示方法,那么不管上下文是什么,单词 "stick" 都只表示为一个向量。一些研究人员指出,像 "stick" 这样的词有多种含义。为什么不能根据它使用的上下文来学习对应的词嵌入呢?这样既能捕捉单词的语义信息,又能捕捉上下文的语义信息。于是,语境化的词嵌入模型应运而生ELMO
![ELMO](./pictures/3-elmo.webp)图ELMO
语境化的词嵌入,可以根据单词在句子语境中的含义,赋予不同的词嵌入。你可以查看这个视频 RIP Robin Williamshttps://zhuanlan.zhihu.com/RIP Robin Williams
语境化的词嵌入,可以根据单词在句子语境中的含义,赋予不同的词嵌入。
ELMo 没有对每个单词使用固定的词嵌入,而是在为每个词分配词嵌入之前,查看整个句子,融合上下文信息。它使用在特定任务上经过训练的双向 LSTM 来创建这些词嵌入。
ELMo没有对每个单词使用固定的词嵌入而是在为每个词分配词嵌入之前查看整个句子融合上下文信息。它使用在特定任务上经过训练的双向LSTM来创建这些词嵌入。
![ELMO embedding](./pictures/3-elmo-emb.png)图: ELMO embedding
@ -127,128 +137,40 @@ ELMo 通过训练,预测单词序列中的下一个词,从而获得了语言
![ELMO 训练](./pictures/3-elmo-pre.webp)图: ELMO 训练
ELMo 预训练过程的其中一个步骤:以 "Lets stick to" 作为输入,预测下一个最有可能的单词。这是一个语言建模任务。当我们在大规模数据集上训练时,模型开始学习语言的模式。例如,在 "hang" 这样的词之后,模型将会赋予 "out" 更高的概率(因为 "hang out" 是一个词组),而不是 "camera"。
ELMo预训练过程是一个典型的语言模型:以 "Lets stick to" 作为输入,预测下一个最有可能的单词。当我们在大规模数据集上训练时,模型开始学习语言的模式。例如,在 "hang" 这样的词之后,模型将会赋予 "out" 更高的概率(因为 "hang out" 是一个词组),而不是输出 "camera"。
在上图中,我们可以看到 ELMo 头部上方展示了 LSTM 的每一步的隐藏层状态向量。在这个预训练过程完成后,这些隐藏层状态在词嵌入过程中派上用场。
![ELMO 训练 stick](./pictures/3-elmo-pre1.png)图ELMO 训练
ELMo 通过将隐藏层状态(以及初始化的词嵌入)以某种方式(向量拼接之后加权求和)结合在一起,实现了带有语境化的词嵌入。
ELMo 通过将LSTM模型的隐藏成表示向量(以及初始化的词嵌入)以某种方式(向量拼接之后加权求和)结合在一起,实现了带有语境化的词嵌入。
![ELMO 训练 stick](./pictures/3-elmo-pre2.webp)图ELMO 训练
### ULM-FiTNLP 领域的迁移学习
#### Transformer超越LSTM
ULM-FiT 提出了一些方法来有效地利用模型在预训练期间学习到的东西 - 这些东西不仅仅是词嵌入还有语境化的词嵌入。ULM-FiT 提出了一个语言模型和一套流程,可以有效地为各种任务微调这个语言模型
随着Transformer论文和代码的发布以及它在机器翻译等任务上取得的成果开始让人们认为它是LSTM的替代品。一部分原因是1. 因为 Transformer 可以比 LSTM 更好地处理长期依赖2. Transformer可以对输入进行并行运算
现在NLP 可能终于找到了好的方法,可以像计算机视觉那样进行迁移学习了。
2017年基于Transformer的Encoder-Decode展示了它在机器翻译上的威力。但怎么才能用它来做文本分类呢你怎么才能使用它来预训练一个语言模型并能够在其他任务上进行微调下游任务是指那些能够利用预训练模型的监督学习任务
### Transformer超越 LSTM
### OpenAI Transformer预训练一个Transformer Decoder进行语言建模
Transformer 论文和代码的发布,以及它在机器翻译等任务上取得的成果,开始让人们认为它是 LSTM 的替代品。这是因为 Transformer 可以比 LSTM 更好地处理长期依赖。
Transformer 的 Encoder-Decoder 结构使得它非常适合机器翻译。但你怎么才能用它来做文本分类呢?你怎么才能使用它来预训练一个语言模型,并能够在其他任务上进行微调(下游任务是指那些能够利用预训练模型的监督学习任务)?
### OpenAI Transformer预训练一个 Transformer Decoder 来进行语言建模
事实证明,我们不需要一个完整的 Transformer 来进行迁移学习和微调。我们只需要 Transformer 的 Decoder 就可以了。Decoder 是一个很好的选择,用它来做语言建模(预测下一个词)是很自然的,因为它可以屏蔽后来的词 。当你使用它进行逐词翻译时,这是个很有用的特性。
![open ai模型](./pictures/3-openai.webp)图: open ai模型
OpenAI Transformer 是由 Transformer 的 Decoder 堆叠而成的
这个模型包括 12 个 Decoder 层。因为在这种设计中没有 Encoder这些 Decoder 层不会像普通的 Transformer 中的 Decoder 层那样有 Encoder-Decoder Attention 子层。不过,它仍然会有 Self Attention 层(这些层使用了 mask因此不会看到句子后来的 token
有了这个结构,我们可以继续在同样的语言建模任务上训练这个模型:使用大规模未标记的数据来预测下一个词。只需要把 7000 本书的文字扔给模型 ,然后让它学习。书籍非常适合这种任务,因为书籍的数据可以使得模型学习到相关联的信息。如果你使用 tweets 或者文章来训练,模型是得不到这些信息的。
沿着LSTM语言模型预训练的路子将LSTM替换成Transformer结构后相当于直接语言模型预训练的参数给予下游任务监督数据进行微调与最开始用于翻译seq2seq的Transformer对比来看相当于只使用了Decoder部分。有了Transformer结构和语言模型任务设计直接使用大规模未标记的数据不断得预测下一个词只需要把 7000 本书的文字依次扔给模型 ,然后让它不断学习生成下一个词即可。
![open ai模型预测下一个词](./pictures/3-openai-next.webp)图: open ai模型预测下一个词
上图表示OpenAI Transformer 在 7000 本书的组成的数据集中预测下一个单词。
现在OpenAI Transformer 已经经过了预训练,它的网络层藏书经过很多次调整,可以很好地用向量表示文本了,我们开始使用它来处理下游任务。让我们先看下句子分类任务(把电子邮件分类为 ”垃圾邮件“ 或者 ”非垃圾邮件“):
### 下游任务的迁移学习
![open ai模型下游任务](./pictures/3-openai-down.png)图: open ai模型做句子分类
现在OpenAI Transformer 已经经过了预训练,它的网络层经过调整,可以很好地处理文本语言,我们可以开始使用它来处理下游任务。让我们先看下句子分类任务(把电子邮件分类为 ”垃圾邮件“ 或者 ”非垃圾邮件“):
![open ai模型下游任务](./pictures/3-openai-down.png)图: open ai模型下游任务
OpenAI 的论文列出了一些列输入变换方法,来处理不同任务类型的输入。下面这张图片来源于论文,展示了执行不同任务的模型结构和对应输入变换。这些都是非常很巧妙的做法。
对于形形色色的NLP任务OpenAI 的论文列出了一些列输入变换方法,可以处理不同任务类型的输入。下面这张图片来源于论文,展示了处理不同任务的模型结构和对应输入变换。
![open ai微调](./pictures/3-openai-method.webp)图: open ai微调
## BERTDecoder Encoder
#### BERTDecoder到Encoder
OpenAI Transformer 为我们提供了一个基于 Transformer 的可以微调的预训练网络。但是在把 LSTM 换成 Transformer 的过程中有些东西丢失了。ELMo 的语言模型是双向的,但 OpenAI Transformer 只训练了一个前向的语言模型。我们是否可以构建一个基于 Transformer 的语言模型,它既向前看,又向后看(用技术术语来说 - 融合上文和下文的信息)。
### Masked Language ModelMLM 语言模型)
那么如何才能像 LSTM 那样,融合上文和下文的双向信息呢?
一种直观的想法是使用 Transformer 的 Encoder。但是 Encoder 的 Self Attention 层,每个 token 会把大部分注意力集中到自己身上,那么这样将容易预测到每个 token模型学不到有用的信息。BERT 提出使用 mask把需要预测的词屏蔽掉。
下面这段风趣的对话是博客原文的。
```
BERT 说,“我们要用 Transformer 的 Encoder”。
Ernie 说,”这没什么用,因为每个 token 都会在多层的双向上下文中看到自己“。
BERT 自信地说,”我们会使用 mask“。
```
![BERT mask](./pictures/3-bert-mask.webp)图: BERT mask
BERT 在语言建模任务中,巧妙地屏蔽了输入中 15% 的单词,并让模型预测这些屏蔽位置的单词。
找到合适的任务来训练一个 Transformer 的 Encoder 是一个复杂的问题BERT 通过使用早期文献中的 "masked language model" 概念(在这里被称为完形填空)来解决这个问题。
除了屏蔽输入中 15% 的单词外, BERT 还混合使用了其他的一些技巧,来改进模型的微调方式。例如,有时它会随机地用一个词替换另一个词,然后让模型预测这个位置原来的实际单词。
### 两个句子的任务
如果你回顾 OpenAI Transformer 在处理不同任务时所做的输入变换,你会注意到有些任务需要模型对两个句子的信息做一些处理(例如,判断它们是不是同一句话的不同解释。将一个维基百科条目作为输入,再将一个相关的问题作为另一个输入,模型判断是否可以回答这个问题)。
为了让 BERT 更好地处理多个句子之间的关系预训练过程还包括一个额外的任务给出两个句子A 和 B判断 B 是否是 A 后面的相邻句子。
![2个句子任务](./pictures/3-bert-2sent.webp)图: 2个句子任务
BERT 预训练的第 2 个任务是两个句子的分类任务。在上图中tokenization 这一步被简化了,因为 BERT 实际上使用了 WordPieces 作为 token而不是使用单词本身。在 WordPiece 中,有些词会被拆分成更小的部分。
### BERT 在不同任务上的应用
BERT 的论文展示了 BERT 在多种任务上的应用。
![BERT应用](./pictures/3-bert-app.png)图: BERT应用
### 将 BERT 用于特征提取
使用 BERT 并不是只有微调这一种方法。就像 ELMo 一样,你可以使用预训练的 BERT 来创建语境化的词嵌入。然后你可以把这些词嵌入用到你现有的模型中。论文里也提到,这种方法在命名实体识别任务中的效果,接近于微调 BERT 模型的效果。
![BERT特征提取](./pictures/3-bert-feature.png)图: BERT特征提取
那么哪种向量最适合作为上下文词嵌入?我认为这取决于任务。论文里验证了 6 种选择(与微调后的 96.4 分的模型相比):
![BERT特征选择](./pictures/3-bert-fea.webp)图: BERT特征选择
### 如何使用 BERT
将在篇章3中进行更为详细的讲解。
尝试 BERT 的最佳方式是通过托管在 Google Colab 上的 BERT FineTuning with Cloud TPUs。如果你之前从来没有使用过 Cloud TPU那这也是一个很好的尝试开端因为 BERT 代码可以运行在 TPU、CPU 和 GPU。
下一步是查看 BERT 仓库 中的代码:
- 模型是在 modeling.pyclass BertModel中定义的和普通的 Transformer encoder 完全相同。
- run_classifier.py 是微调网络的一个示例。它还构建了监督模型分类层。如果你想构建自己的- 分类器,请查看这个文件中的 create_model() 方法。
- 可以下载一些预训练好的模型。这些模型包括 BERT Base、BERT Large以及英语、中文和包括 102 种语言的多语言模型,这些模型都是在维基百科的数据上进行训练的。
- BERT 不会将单词作为 token。相反它关注的是 WordPiece。tokenization.py 就是 tokenizer它会将你的单词转换为适合 BERT 的 wordPiece。
OpenAI Transformer为我们提供了一个基于Transformer的预训练网络。但是在把LSTM换成Transformer 的过程中有些东西丢失了。比如之前的ELMo的语言模型是双向的但 OpenAI Transformer 只训练了一个前向的语言模型。我们是否可以构建一个基于 Transformer 的语言模型,它既向前看,又向后看(用技术术语来说 - 融合上文和下文的信息。那答案就是BERT啦。
## 致谢
主要由哈尔滨工业大学张贤同学翻译(经过原作者授权)撰写,由本项目同学组织和整理。感谢Jacob Devlin、Matt Gardner、Kenton Lee、Mark Neumann 和 [Matthew Peters](https://twitter.com/mattthemathman) 为这篇文章的早期版本提供了反馈
主要由哈尔滨工业大学张贤同学翻译经过原作者授权撰写由多多重新组织和整理。感谢Jacob Devlin、Matt Gardner、Kenton Lee、Mark Neumann 和 [Matthew Peters](https://twitter.com/mattthemathman) 为这篇文章的早期版本提供了反馈。