Keras 中的Embedding层是如何工作的

本文详细介绍了Keras中的Embedding层如何将词汇整数转化为向量,解释了词汇表大小、嵌入维度和输入长度参数的作用,并通过一个简单的文本处理例子展示了其工作方式。在训练过程中,Embedding层的权重通过优化算法更新得到。
摘要由CSDN通过智能技术生成

Keras 中的Embedding层是如何工作的

说明

最近在做自然语言处理方面的研究,特别是研究到了词嵌入,于是便对keras中的Embedding的工作方式产生了疑问,常用的词嵌入模型诸如CBOW,Skip-gram都是一个单独的模型,而keras中的Embedding层仅仅是一个层,那是不是这个层中嵌入了某一个模型呢,答案是:错。
在翻了下百度上的一些解答后,感觉都不清楚,最终在StackExchange上看到了一个大佬的回复,感觉讲的真清楚,所以呢,就打算做个笔记,结合自己的理解翻译一下,以供后续查阅。
先奉上链接,英语好的可以直接看原文.

先翻译下问题

首先一个老外,跟我一样有了同样的问题,于是啊,他就做了如下工作:


import numpy as np
from keras.models import Sequential
from keras.layers import Embedding

model = Sequential()
model.add(Embedding(5, 2, input_length=5))

input_array = np.random.randint(5, size=(1, 5))

model.compile('rmsprop', 'mse'
  • 4
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值