This commit is contained in:
erenup 2021-08-30 20:49:28 +08:00
parent 7d67538610
commit e1bfc0db47
1 changed files with 1 additions and 1 deletions

View File

@ -24,7 +24,7 @@
站在2021年来看2018年是自然语言处理技术的一个转折点运用深度学习技术处理文本的能力通过预训练模型被极大的发挥了出来。同时伴随着NLP开源社区的贡献很多强大的模型被封装成组件让NLP初学者也有机会在各种NLP任务上取得非常好的效果。在众多NLP预训练模型里最经典的基本就是BERT和GPT了因此本文将开始对BERT单篇文章的citation已经接近2万的学习。
BERT在2018年被剔除BERT模型一出现就打破了多个自然语言处理任务的最好记录。BERT的论文发布不久后BERT团队公开了模型的代码并提供了基于大规模新书预训练完成的模型下载。BERT的模型代码和模型参数的开源使得任何一个NLP从业者都可以基于这个强大的模型组件搭建自己的NLP系统也节省了从零开始训练语言处理模型所需要的时间、精力、知识和资源。
BERT在2018年被提出BERT模型一出现就打破了多个自然语言处理任务的最好记录。BERT的论文发布不久后BERT团队公开了模型的代码并提供了基于大规模新书预训练完成的模型下载。BERT的模型代码和模型参数的开源使得任何一个NLP从业者都可以基于这个强大的模型组件搭建自己的NLP系统也节省了从零开始训练语言处理模型所需要的时间、精力、知识和资源。
那么BERT具体干了一件什么事情呢如下图所示BERT首先在大规模无监督语料上进行预训练然后在预训练好的参数基础上增加一个与任务相关的神经网络层并在该任务的数据上进行微调训最终取得很好的效果。BERT的这个训练过程可以简述为预训练+微调finetune已经成为最近几年最流行的NLP解决方案的范式。