参数
参数 | 描述 |
---|---|
input_dim | 词汇表的维度(总共有多少个不相同的词) |
output_dim | 嵌入词空间的维度 |
input_length | 输入语句的长度 |
embeddings_initializer | |
embeddings_regularizer | |
embeddings_constraint | |
mask_zero |
列子:
from tensorflow import keras
import numpy as np
data = np.array([[0,0,0],[1,1,1]])
emb = keras.layers.Embedding(input_dim=2, output_dim=3, input_length=3) # 只有0,1所以input_dime是2
emb(data)
输入形状
二维张量(batch_size,input_length)
输出形状
三维张量(batch_size,input_length,output_dim)
init
__init__(
input_dim,
output_dim,
embeddings_initializer='uniform',
embeddings_regularizer=None,
activity_regularizer=None,
embeddings_constraint=None,
mask_zero=False,
input_length=None,
**kwargs
)
参考:
从Embedding层到Keras解决文本分类
api应用
How to Use Word Embedding Layers for Deep Learning with Keras
深度学习中Keras中的Embedding层的理解与使用
一文搞懂word embeddding和keras中的embedding
在Keras模型中one-hot编码,Embedding层,使用预训练的词向量/处理图片