tf.nn.embedding_lookup函数的工作原理

tf.nn.embedding_lookup函数的工作原理

函数定义:

tf.nn.embedding_lookup(
    params,
    ids,
    partition_strategy='mod',
    name=None,
    validate_indices=True,
    max_norm=None
)

官方解释:

This function is used to perform parallel lookups on the list of tensors in params,where params is interpreted as a partitioning of a large embedding tensor.

操作方式:

该函数按照ids顺序返回params中的第ids行。

实例解释:

在这里插入图片描述

如上例所示,输入数据为 [ 0 , 0 , 0 , 1 , 0 ] [0, 0, 0, 1, 0] [0,0,0,1,0],对params执行乘法操作,由于输入是one hot 的原因, x ⋅ W x·W xW的矩阵乘法看起来就像是取了 W W W中对应的一行,看起来就像是在查表。这个实例中ids = 3,查表得到第四行数据 [ 10 , 12 , 19 ] [10, 12, 19] [10,12,19]

实现过程:

针对输入是超高维向量,但是是one hot向量的一种特殊的全连接层的实现方法,其内部实际是包含一个网络结构的,如下图所示。

在这里插入图片描述

假设我们想要找到2的embedding值,这个值其实是输入层第二个神经元与embedding层连线的权重值。

使用该函数时,params给定的初始值是随机的,即全连接层的权值,但Embedding矩阵(params)会跟随网络中的其它参数一起训练,最终得到合适的Embedding向量,该过程可以类比word2vec学习词向量的过程,Embedding向量就是网络的副产品,即神经元与embedding层连线的权重值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值