word2vec

截图 word2vec 中的数学原理详解

看上面的链接内容,直接从第5章开始看。

总结

L=loguP(uContent(w))L=\log \prod_{u} P(u|Content(w))

P(uContent(w))=σ(XwTθu)orσ(XwTθu)P(u|Content(w)) = \sigma(X_w^T \theta^u) \quad or \quad \sigma(-X_w^T \theta^u)

Parallelizing Word2Vec in Shared and Distributed Memory

https://arxiv.org/abs/1604.04661

https://github.com/IntelLabs/pWord2Vec

http://www.52cs.org/?p=22

https://www.zhihu.com/question/53011711/answer/133115595 word2vec相较于之前的Word Embedding方法好在什么地方呢?

两个词经常一块出现<=>两个词在某方面有相似语义<=>两个向量在某些维度取值类似

http://p.migdal.pl/2017/01/06/king-man-woman-queen-why.html king - man + woman is queen; but why?

上面这篇文章要细读

  1. 仅仅利用了word co-occurrence 。忽略了语法等。

  2. interchanged 。A small, fluffy roosety climbed a tree. 根据上下文,可以认为roosety就是松鼠squirrel,因为这两个可以交换。

  3. 用pointwise mutual information (PMI)度量两个point的距离 PMI(a,b)=log[P(a,b)P(a)P(b)]=log[P(ab)P(a)]PMI(a, b) = \log \left[ \frac{P(a,b)}{P(a)P(b)} \right] = \log \left[ \frac{P(a|b)}{P(a)} \right] ,一般用近似的PMI(a,b)=vavbPMI(a, b) = \vec{v}_a \cdot \vec{v}_b 。这个就是向量内积,衡量两个vector接近。

  4. 上面的PMI可以用来做推荐系统

GloVe: Global Vectors for Word Representation

为何做DL用word2vec比glove多?

定制你的个性化词向量:解读+中文实战

Embedding算法之矩阵分解

Hierarchical Softmax

word2vec模型和源码解析

一篇通俗易懂的word2vec

word2vec中关于霍夫曼树的应用原理

word2vec原理(二) 基于Hierarchical Softmax的模型

句子的相似度

算出句子每个词向量之后用

用綫性規劃去計算句子之間的相似度

Finding similar documents with Word2Vec and WMD 下的WMD_tutorial.ipynb

如何用 word2vec 计算两个句子之间的相似度?

分布的相似度(距离)用什么模型比较好?

Last updated

Was this helpful?