This commit is contained in:
ChungKingExpress
2022-04-24 10:14:51 +08:00
parent c5e9e4b79b
commit 9a678cdb18
16 changed files with 485 additions and 0 deletions

View File

@@ -0,0 +1,6 @@
<component name="InspectionProjectProfileManager">
<profile version="1.0">
<option name="myName" value="Project Default" />
<inspection_tool class="Eslint" enabled="true" level="WARNING" enabled_by_default="true" />
</profile>
</component>

6
.idea/vcs.xml generated Normal file
View File

@@ -0,0 +1,6 @@
<?xml version="1.0" encoding="UTF-8"?>
<project version="4">
<component name="VcsDirectoryMappings">
<mapping directory="$PROJECT_DIR$" vcs="Git" />
</component>
</project>

82
.idea/workspace.xml generated Normal file
View File

@@ -0,0 +1,82 @@
<?xml version="1.0" encoding="UTF-8"?>
<project version="4">
<component name="AutoImportSettings">
<option name="autoReloadType" value="SELECTIVE" />
</component>
<component name="ChangeListManager">
<list default="true" id="e8fd533f-1297-4a63-be28-1460036a5271" name="Changes" comment="">
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/1.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/10.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/11.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/12.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/2.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/3.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/4.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/5.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/6.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/7.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/8.png" afterDir="false" />
<change afterPath="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础/word2vec_pictures/9.png" afterDir="false" />
</list>
<option name="SHOW_DIALOG" value="false" />
<option name="HIGHLIGHT_CONFLICTS" value="true" />
<option name="HIGHLIGHT_NON_ACTIVE_CHANGELIST" value="false" />
<option name="LAST_RESOLUTION" value="IGNORE" />
</component>
<component name="FlaskConsoleOptions" custom-start-script="import sys&#10;sys.path.extend([WORKING_DIR_AND_PYTHON_PATHS])&#10;from flask.cli import ScriptInfo&#10;locals().update(ScriptInfo(create_app=None).load_app().make_shell_context())&#10;print(&quot;Python %s on %s\nApp: %s [%s]\nInstance: %s&quot; % (sys.version, sys.platform, app.import_name, app.env, app.instance_path))">
<envs>
<env key="FLASK_APP" value="app" />
</envs>
<option name="myCustomStartScript" value="import sys&#10;sys.path.extend([WORKING_DIR_AND_PYTHON_PATHS])&#10;from flask.cli import ScriptInfo&#10;locals().update(ScriptInfo(create_app=None).load_app().make_shell_context())&#10;print(&quot;Python %s on %s\nApp: %s [%s]\nInstance: %s&quot; % (sys.version, sys.platform, app.import_name, app.env, app.instance_path))" />
<option name="myEnvs">
<map>
<entry key="FLASK_APP" value="app" />
</map>
</option>
</component>
<component name="Git.Settings">
<option name="RECENT_GIT_ROOT_PATH" value="$PROJECT_DIR$" />
</component>
<component name="ProjectId" id="28Che2OJbCozJgAtlkwMu31utAW" />
<component name="ProjectViewState">
<option name="hideEmptyMiddlePackages" value="true" />
<option name="showLibraryContents" value="true" />
</component>
<component name="PropertiesComponent">
<property name="RunOnceActivity.OpenProjectViewOnStart" value="true" />
<property name="RunOnceActivity.ShowReadmeOnStart" value="true" />
<property name="WebServerToolWindowFactoryState" value="false" />
<property name="last_opened_file_path" value="$PROJECT_DIR$/docs/第一章 推荐系统基础/1.0 机器学习基础" />
<property name="node.js.detected.package.eslint" value="true" />
<property name="node.js.detected.package.tslint" value="true" />
<property name="node.js.selected.package.eslint" value="(autodetect)" />
<property name="node.js.selected.package.tslint" value="(autodetect)" />
<property name="settings.editor.selected.configurable" value="org.jetbrains.plugins.github.ui.GithubSettingsConfigurable" />
</component>
<component name="RecentsManager">
<key name="CopyFile.RECENT_KEYS">
<recent name="D:\1a_my files\github_pull\fun-rec\docs\第一章 推荐系统基础\1.0 机器学习基础" />
<recent name="D:\1a_my files\github_pull\fun-rec\docs\第一章 推荐系统基础" />
</key>
<key name="MoveFile.RECENT_KEYS">
<recent name="D:\1a_my files\github_pull\fun-rec\docs\第一章 推荐系统基础\1.0 机器学习基础" />
</key>
</component>
<component name="SpellCheckerSettings" RuntimeDictionaries="0" Folders="0" CustomDictionaries="0" DefaultDictionary="application-level" UseSingleDictionary="true" transferred="true" />
<component name="TaskManager">
<task active="true" id="Default" summary="Default task">
<changelist id="e8fd533f-1297-4a63-be28-1460036a5271" name="Changes" comment="" />
<created>1650726567145</created>
<option name="number" value="Default" />
<option name="presentableId" value="Default" />
<updated>1650726567145</updated>
<workItem from="1650726568431" duration="742000" />
<workItem from="1650764926216" duration="892000" />
<workItem from="1650765956160" duration="379000" />
</task>
<servers />
</component>
<component name="TypeScriptGeneratedFilesManager">
<option name="version" value="3" />
</component>
</project>

View File

@@ -0,0 +1,391 @@
```markdown
### 1背景和引入我们该如何表达单词的含义
在所有的NLP任务中首先面临的第一个问题是我们该如何表示单词。这种表示将作为inputs输入到特定任务的模型中如机器翻译文本分类等典型NLP任务。
```
```markdown
#### 1.1通过同义词表达单词的含义
一个很容易想到的解决方案是使用同义词来表示一个单词的意义。
比如***WordNet***,一个包含同义词和有“is a”关系的词的词库。
```
```
##### 导包
```
```python
!pip install --user -U nltk
```
```python
!python -m nltk.downloader popular
```
```markdown
##### 如获取"good"的同义词
```
```python
from nltk.corpus import wordnet as wn
poses = { 'n':'noun', 'v':'verb', 's':'adj (s)', 'a':'adj', 'r':'adv'}
for synset in wn.synsets("good"):
print("{}: {}".format(poses[synset.pos()],", ".join([l.name() for l in synset.lemmas()])))
```
```markdown
##### 如获取与“pandas”有"is a"关系的词
```
```python
panda = wn.synset("panda.n.01")
hyper = lambda s: s.hypernyms()
list(panda.closure(hyper))
```
```markdown
##### WordNet的问题
1.单词与单词之间缺少些微差异的描述。
比如“高效”只在某些语境下是"好"的同义词
2.丢失一些词的新含义。
比如“芜湖”,“蚌埠”等词的新含义
3.相对主观
4.需要人手动创建和调整
5.无法准确计算单词的相似性
```
```markdown
#### 1.2通过one-hot word vectors表达单词的含义
在传统NLP中人们使用one-hot向量一个向量只有一个值为1其余的值为0来表示单词
motel = [0 0 0 0 0 0 0 0 0 0 1 0 0 0 0]
hotel = [0 0 0 0 0 0 0 1 0 0 0 0 0 0 0]
one-hot向量的维度是词汇表的大小500000
注:上面示例词向量的维度为方便展示所以比较小
---------------------------------------------
one-hot向量表示单词的问题
1.这些词向量是***正交向量***,无法通过数学计算(如点积)计算相似性
2.依赖WordNet等同义词库建立相似性效果也不好
```
```markdown
#### 1.3通过dense word vectors表达单词的含义
如果我们可以使用某种方法为每个单词构建一个合适的dense vector如下图那么通过***点积等数学计算就可以获得单词之间的某种联系***
![1](./word2vec_pictures/1.png)
```
```markdown
### 2模型介绍与推导Word2vec
```
```markdown
#### 2.1语言学基础
首先,我们引入一个上世纪五十年代,一个语言学家的研究成果:
***“一个单词的意义由它周围的单词决定”***
“You shall know a word by the company it keeps” (J. R. Firth 1957: 11)
这是现代NLP中一个最为成功的理念。
我们先引入上下文context的概念当单词 w 出现在文本中时,其***上下文context***是出现在w附近的一组单词在固定大小的窗口内如下图
![2](./word2vec_pictures/2.png)
这些上下文单词context words决定了banking的意义
```
```markdown
#### 2.2Word2vec概述
Word2vec(Mikolov et al. 2013)是一个用来学习dense word vector的算法
1.我们使用**大量的文本语料库**
2.词汇表中的每个单词都由一个**词向量dense word vector**表示
3.遍历文本中的每个位置 t都有一个**中心词 ccenter 和上下文词 o“outside”**如图1中的banking
4.在整个语料库上使用数学方法**最大化单词o在单词c周围出现了这一事实**从而得到单词表中每一个单词的dense vector
5.不断调整词向量dense word vector以达到最好的效果
```
```markdown
#### 2.3 Skip-gram(SG)
Word2vec包含两个模型**Skip-gram与CBOW**。下面,我们先讲解**Skip-gram**模型,用此模型详细讲解概述中所提到的内容。
----------------------------------------------
概述中我们提到,我们希望**最大化单词o在单词c周围出现了这一事实**而我们需要用数学语言表示“单词o在单词c周围出现了”这一事件如此才能进行词向量的不断调整。
很自然地,我们需要**使用概率工具描述事件的发生**,我们想到用条件概率**P(o$\arrowvert$c)**表示“给定中心词c,它的上下文词o在它周围出现了”
下图展示了以“into”为中心词窗口大小为2的情况下它的上下文词。以及相对应的**P(o$\arrowvert$c)**
![3](./word2vec_pictures/3.png)
我们滑动窗口再以banking为中心词
![4](./word2vec_pictures/4.png)
那么如果我们在整个语料库上不断地滑动窗口我们可以得到所有位置的P(o$\arrowvert$c),我们希望在所有位置上**最大化单词o在单词c周围出现了这一事实**,由极大似然法,可得:
max$\prod_c$$\prod_o$P(o$\arrowvert$c) 【式1】
此式还可以依图3写为
![5](./word2vec_pictures/5.png)
加log,加负号,缩放大小可得:
![7](./word2vec_pictures/7.png)
上式即为**skip-gram的损失函数**,最小化损失函数,就可以得到合适的词向量
---------------------------
得到式1后产生了两个问题
1.P(o$\arrowvert$c)怎么表示?
2.为何最小化损失函数能够得到良好表示的词向量dense word vector
----------------------
回答1我们使用**中心词c和上下文词o的相似性**来计算P(o$\arrowvert$c),更具体地,相似性由**词向量的点积**表示:$u_{o^T}$$\cdot$$v_c$。
使用词向量的点积表示P(o$\arrowvert$c)的原因1.计算简单 2.出现在一起的词向量意义相关,则希望它们相似
又P(o$\arrowvert$c)是一个概率,所以我们在整个语料库上使用**softmax**将点积的值映射到概率如图6
![6](./word2vec_pictures/6.png)
注:注意到上图,中心词词向量为$v_{c}$,而上下文词词向量为$u_{o}$。也就是说每个词会对应两个词向量,**在词w做中心词时使用$v_{w}$作为词向量,而在它做上下文词时,使用$u_{w}$作为词向量**。这样做的原因是为了求导等操作时计算上的简便。当整个模型训练完成后,我们既可以使用$v_{w}$作为词w的词向量也可以使用$u_{w}$作为词w的词向量亦或是将二者平均。在下一部分的模型结构中我们将更清楚地看到两个词向量究竟在模型的哪个位置。
-----------------------------
回答2由上文所述P(o$\arrowvert$c)=softmax($u_{o^T}$$\cdot$$v_c$)。所以损失函数是关于$u_{o}$和$v_c$的函数,我们通过梯度下降法调整$u_{o}$和$v_c$的值,最小化损失函数,即得到了良好表示的词向量。
--------------------------------
```
```markdown
#### 2.4 Word2vec模型结构
![8](./word2vec_pictures/8.png)
如图八所示这是一个输入为1 X V维的one-hot向量V为整个词汇表的长度这个向量只有一个1值其余为0值表示一个词单隐藏层**隐藏层的维度为N这里是一个超参数这个参数由我们定义也就是词向量的维度**输出为1 X V维的softmax层的模型。
$W^{I}$为V X N的参数矩阵$W^{O}$为N X V的参数矩阵。
模型的输入为1 X V形状的one-hot向量V为整个词汇表的长度这个向量只有一个1值其余为0值表示一个词。隐藏层的维度为N这里是一个超参数这个参数由我们定义也就是词向量的维度。$W^{I}$为V X N的参数矩阵。
我们这里考虑Skip-gram算法输入为中心词c的one-hot表示
由输入层到隐藏层,根据矩阵乘法规则,可知,**$W^{I}$的每一行即为词汇表中的每一个单词的词向量v**,1 X V 的 inputs 乘上 V X N 的$W^{I}$隐藏层即为1 X N维的$v_{c}$。
而**$W^{O}$中的每一列即为词汇表中的每一个单词的词向量u**。根据乘法规则1 X N 的隐藏层乘上N X V的$W^{O}$参数矩阵得到的1 X V 的输出层的每一个值即为$u_{w^T}$$\cdot$$v_c$,加上softmax变化即为P(w$\arrowvert$c)。
有V个w,其中的P(o$\arrowvert$c)即实际样本中的上下文词的概率,为我们最为关注的值。
```
```markdown
#### 2.5 CBOW
如上文所述Skip-gram为给定中心词预测周围的词即求P(o$\arrowvert$c),如下图所示:
![9](./word2vec_pictures/9.png)
而CBOW为给定周围的词预测中心词即求P(c$\arrowvert$o),如下图所示:
![10](./word2vec_pictures/10.png)
注意在使用CBOW时上文所给出的模型结构并没有变在这里我们输入多个上下文词o在隐藏层**将这多个上下文词经过第一个参数矩阵的计算得到的词向量相加作为隐藏单元的值**。其余均不变,$W^{O}$中的每一列依然为为词汇表中的每一个单词的词向量u。
```
```markdown
### 3负采样 Negative Sampling
```
```markdown
#### 3.1 softmax函数带来的问题
我们再看一眼通过softmax得到的P(o$\arrowvert$c),如图:
![11](./word2vec_pictures/11.png)
可以看到P(o$\arrowvert$c)的分母需要在整个单词表上做乘积和exp运算这无疑是非常消耗计算资源的Word2vec的作者针对这个问题做出了改进。
他提出了两种改进的方法Hierarchical Softmax和Negative Sampling因为Negative Sampling更加常见所以我们下面只介绍Negative Sampling感兴趣的朋友可以在文章下面的参考资料中学习Hierarchical Softmax。
```
```markdown
#### 3.2 负采样Negative Sampling
我们依然以Skip-gram为例CBOW与之差别不大感兴趣的朋友们依然可以参阅参考资料
我们首先给出负采样的损失函数:
![12](./word2vec_pictures/12.png)
其中$\sigma$为sigmoid函数1/(1+$e^{-x}$),$u_{o}$为实际样本中的上下文词的词向量,而$u_{k}$为我们在单词表中随机选出按一定的规则随机选出具体可参阅参考资料的K个单词。
由函数单调性易知,**$u_{o^T}$$\cdot$$v_c$越大,损失函数越小,而$u_{k^T}$$\cdot$$v_c$越小**损失函数越大。这与原始的softmax损失函数优化目标一致即maxP(o$\arrowvert$c),而且避免了在整个词汇表上的计算。
```
```markdown
### 4 核心代码与核心推导
```
```markdown
#### 4.1 Naive softmax 损失函数
```
```markdown
损失函数关于$v_c$的导数:
$$
\frac{\partial{J_{naive-softmax}(\boldsymbol v_c,o,\boldsymbol U)}}{\partial \boldsymbol v_c} \\=
-\frac{\partial{log(P(O=o|C=c))}}{\partial \boldsymbol v_c} \\ =
-\frac{\partial{log(exp( \boldsymbol u_o^T\boldsymbol v_c))}}{\partial \boldsymbol v_c} + \frac{\partial{log(\sum_{w=1}^{V}exp(\boldsymbol u_w^T\boldsymbol v_c))}}{\partial \boldsymbol v_c} \\=
-\boldsymbol u_o + \sum_{w=1}^{V} \frac{exp(\boldsymbol u_w^T\boldsymbol v_c)}{\sum_{w=1}^{V}exp(\boldsymbol u_w^T\boldsymbol v_c)}\boldsymbol u_w \\=
-\boldsymbol u_o+ \sum_{w=1}^{V}P(O=w|C=c)\boldsymbol u_w \\=
\boldsymbol U^T(\hat{\boldsymbol y} - \boldsymbol y)
$$
可以看到涉及整个U矩阵的计算计算量很大关于$u_w$的导数读者可自行推导
```
```markdown
损失函数及其梯度的求解
```
```python
# 来自https://github.com/lrs1353281004/CS224n_winter2019_notes_and_assignments
def naiveSoftmaxLossAndGradient(
centerWordVec,
outsideWordIdx,
outsideVectors,
dataset
):
""" Naive Softmax loss & gradient function for word2vec models
Arguments:
centerWordVec -- numpy ndarray, center word's embedding
in shape (word vector length, )
(v_c in the pdf handout)
outsideWordIdx -- integer, the index of the outside word
(o of u_o in the pdf handout)
outsideVectors -- outside vectors is
in shape (num words in vocab, word vector length)
for all words in vocab (tranpose of U in the pdf handout)
dataset -- needed for negative sampling, unused here.
Return:
loss -- naive softmax loss
gradCenterVec -- the gradient with respect to the center word vector
in shape (word vector length, )
(dJ / dv_c in the pdf handout)
gradOutsideVecs -- the gradient with respect to all the outside word vectors
in shape (num words in vocab, word vector length)
(dJ / dU)
"""
# centerWordVec: (embedding_dim,1)
# outsideVectors: (vocab_size,embedding_dim)
scores = np.matmul(outsideVectors, centerWordVec) # size=(vocab_size, 1)
probs = softmax(scores) # size=(vocab, 1)
loss = -np.log(probs[outsideWordIdx]) # scalar
dscores = probs.copy() # size=(vocab, 1)
dscores[outsideWordIdx] = dscores[outsideWordIdx] - 1 # dscores=y_hat - y
gradCenterVec = np.matmul(outsideVectors, dscores) # J关于vc的偏导数公式 size=(vocab_size, 1)
gradOutsideVecs = np.outer(dscores, centerWordVec) # J关于u的偏导数公式 size=(vocab_size, embedding_dim)
return loss, gradCenterVec, gradOutsideVecs
```
```markdown
#### 4.2 负采样损失函数
```
```markdown
负采样损失函数关于$v_c$的导数:
$$
\frac{\partial{J_{neg-sample}(\boldsymbol v_c,o,\boldsymbol U)}}{\partial\boldsymbol v_c} \\=
\frac{\partial (-log(\sigma (\boldsymbol u_o^T\boldsymbol v_c))-\sum_{k=1}^{K} log(\sigma (-\boldsymbol u_k^T\boldsymbol v_c)))}{\partial \boldsymbol v_c} \\=
-\frac{\sigma(\boldsymbol u_o^T\boldsymbol v_c)(1-\sigma(\boldsymbol u_o^T\boldsymbol v_c))}{\sigma(\boldsymbol u_o^T\boldsymbol v_c)}\frac{\partial \boldsymbol u_o^T\boldsymbol v_c}{\partial \boldsymbol v_c} -
\sum_{k=1}^{K}\frac{\partial log(\sigma(-\boldsymbol u_k^T\boldsymbol v_c))}{\partial \boldsymbol v_c} \\=
-(1-\sigma(\boldsymbol u_o^T\boldsymbol v_c))\boldsymbol u_o+\sum_{k=1}^{K}(1-\sigma(-\boldsymbol u_k^T\boldsymbol v_c))\boldsymbol u_k
$$
可以看到其只与$u_k$和$u_o$有关,避免了在整个单词表上的计算
```
```markdown
负采样方法的损失函数及其导数的求解
```
```python
def negSamplingLossAndGradient(
centerWordVec,
outsideWordIdx,
outsideVectors,
dataset,
K=10
):
negSampleWordIndices = getNegativeSamples(outsideWordIdx, dataset, K)
indices = [outsideWordIdx] + negSampleWordIndices
gradCenterVec =np.zeros(centerWordVec.shape) # (embedding_size,1)
gradOutsideVecs = np.zeros(outsideVectors.shape) # (vocab_size, embedding_size)
loss = 0.0
u_o = outsideVectors[outsideWordIdx] # size=(embedding_size,1)
z = sigmoid(np.dot(u_o, centerWordVec)) # size=(1, )
loss -= np.log(z) # 损失函数的第一部分
gradCenterVec += u_o * (z - 1) # J关于vc的偏导数的第一部分
gradOutsideVecs[outsideWordIdx] = centerWordVec * (z - 1) # J关于u_o的偏导数计算
for i in range(K):
neg_id = indices[1 + i]
u_k = outsideVectors[neg_id]
z = sigmoid(-np.dot(u_k, centerWordVec))
loss -= np.log(z)
gradCenterVec += u_k * (1-z)
gradOutsideVecs[neg_id] += centerWordVec * (1 - z)
return loss, gradCenterVec, gradOutsideVecs
```
```markdown
### 参考
Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality[J]. Advances in neural information processing systems, 2013, 26.
https://www.cnblogs.com/peghoty/p/3857839.html
http://web.stanford.edu/class/cs224n/
```

Binary file not shown.

After

Width:  |  Height:  |  Size: 27 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 84 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 22 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 33 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 42 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 59 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 58 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 13 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 17 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 118 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 81 KiB