diff --git a/docs/篇章2-Transformer相关原理/2.1-图解attention.md b/docs/篇章2-Transformer相关原理/2.1-图解attention.md index f64de2e..2fdabd0 100644 --- a/docs/篇章2-Transformer相关原理/2.1-图解attention.md +++ b/docs/篇章2-Transformer相关原理/2.1-图解attention.md @@ -119,7 +119,7 @@ for Statistical Machine Translation](http://emnlp2014.org/papers/pdf/EMNLP201417 ## 致谢 -主要由哈尔滨工业大学张贤同学翻译(经原作者 [@JayAlammmar](https://twitter.com/JayAlammar) 授权)撰写,由多多同学、datawhlae学习者重新组织和整理。最后,期待您的阅读反馈和star哦。 +主要由哈尔滨工业大学张贤同学翻译(经原作者 [@JayAlammmar](https://twitter.com/JayAlammar) 授权)撰写,由多多同学、datawhale学习者重新组织和整理。最后,期待您的阅读反馈和star哦。