keras 生成句子向量 词向量_词向量发展脉络

本文介绍了词向量的发展历程,从神经网络语言模型(NNLM)的词向量副产物,到C&W模型、word2vec的负采样和层次softmax,再到GloVe的上下文统计信息。Keras中可以使用不同的方法生成句子和词向量,如通过预训练模型或自定义模型进行词嵌入计算。
摘要由CSDN通过智能技术生成

bad13eac1105dca7f62e7ee503697217.png

封面来自Home - colah's blog

.

基于深度学习的自然语言处理这本书里语言模型章节提到了词向量是语言模型的副产物.

神经网络语言模型(NNLM)把前几个词作为输入,生成一个上下文向量h,之后这个h与矩阵W相乘,输出softmax之后得到每个词的概率.

因为h是与W的每一列相乘经过softmax对应每个词的概率,所以W的每一列可以是每个词的词向量表示.

相似的论证可以得出NNLM中onehot输入的时候的矩阵E也可以作为词向量.因为矩阵E离onehot更近,所以更多作为词向量.

因为NNLM是语言模型,所以词向量是副产物。

后来的发展:

下面这篇文章写的非常好,ruder的博客,非常好的一系列文章,到glove为止

On word embeddings - Part 1,中文地址 漫谈词向量_网络_CSDN 人工智能-CSDN博客

csdn的 KK4SBB早年翻译的,感谢

一、NNML

简单来说,ruder认为Benigo的 NNML有三个模块:

1. Embedding Layer: 模型的这一层将索引向量与embedding矩阵相乘,生成词向量;

2. Intermediate Layer(s):一层或多层,生成输入层的中间表示,比如,用一个全连接层对前n个词

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值