Keras学习(2)

Embedding

keras.layers.embeddings.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None)

参数解析:
input_dim:大或等于0的整数,字典长度,即输入数据最大下标+1。词汇表的大小。这是文本数据中词汇的取值可能数。例如,如果您的数据是整数编码为0-9之间的值,那么词汇的大小就是10个单词;

output_dim:大于0的整数,代表全连接嵌入的维度。这是嵌入单词的向量空间的大小,
input_length:这是输入序列的长度,就像您为Keras模型的任何输入层所定义的一样,也就是一次输入带有的词汇个数。例如,如果您的所有输入文档都由1000个字组成,那么input_length就是1000。

输入形状

2维张量,形状为(batch_size, sequence_length)。
(1个批次内的文本数,每篇文本中的词语数)

输出形状

3维张量,形状为(batch_size, sequence_length, output_dim)。
(1个批次内的文本数, 每篇文本中的词语数,每个词语的维度)

例子:

下面我们定义一个词汇表为200的嵌入层(例如从0到199的整数编码的字,包括0到199),一个32维的向量空间,其中将嵌入单词,以及输入文档,每个文档有50个单词。

 e = Embedding(input_dim=200, output_dim=32, input_length=50)

参考博客:
keras-Embedding层-知乎

深度学习中Keras中的Embedding层的理解与使用-掘金-Demo

Keras中文文档

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值