diff --git a/docs/篇章2-Transformer相关原理/2.4-图解GPT.md b/docs/篇章2-Transformer相关原理/2.4-图解GPT.md index 9e1b67b..ed42b95 100644 --- a/docs/篇章2-Transformer相关原理/2.4-图解GPT.md +++ b/docs/篇章2-Transformer相关原理/2.4-图解GPT.md @@ -186,7 +186,7 @@ Self-Attention 沿着句子中每个 token 进行处理,主要组成部分包 ![score](./pictures/4-gpt-score.webp)图: score -我们将每个 Value 向量乘以对应的分数,然后求和,就得到了得到 Self Attention 的输出。 +我们将每个 Value 向量乘以对应的分数,然后求和,就得到了 Self Attention 的输出。 ![Self Attention 的输出](./pictures/4-gpt-out.webp)图:Self Attention 的输出