This commit is contained in:
erenup 2021-08-14 09:12:21 +08:00
parent b0cd45d468
commit 88a5a126bf
2 changed files with 10 additions and 2 deletions

View File

@ -5,4 +5,9 @@
* 问题4: BERT预训练时mask的比例可以mask更大的比例吗 * 问题4: BERT预训练时mask的比例可以mask更大的比例吗
* 问题5: BERT如何进行tokenize操作有什么好处 * 问题5: BERT如何进行tokenize操作有什么好处
* 问题6: GPT如何进行tokenize操作和BERT的区别是什么 * 问题6: GPT如何进行tokenize操作和BERT的区别是什么
* 问题7: BERT模型特别大单张GPU训练仅仅只能放入1个batch的时候怎么训练 * 问题7: BERT模型特别大单张GPU训练仅仅只能放入1个batch的时候怎么训练
* 问题8: Transformer为什么需要一个position embedding
* 问题9: Transformer中的残差网络结构作用是什么
* 问题10: BERT训练的时候mask单词的比例可以特别大大于80%)吗?
* 问题11: BERT预训练是如何做mask的
* 问题11: word2vec到BERT改进了什么

View File

@ -1,4 +1,7 @@
## 篇章小测 ## 篇章小测
* 问题1: BERT训练时候的学习率learning rate如何设置? * 问题1: BERT训练时候的学习率learning rate如何设置?
* 问题2: BERT模型使用哪种分词方式 * 问题2: BERT模型使用哪种分词方式
* 问题3: 如何理解BERT模型输入的type ids * 问题3: 如何理解BERT模型输入的type ids
* 问题4: Hugginface代码中的BasicTokenizer作用是
* 问题5: WordPiece分词的好处是什么
* 问题6: BERT中的warmup作用是什么