NLP
文章平均质量分 59
随便逛逛2333
这个作者很懒,什么都没留下…
展开
-
Keras LSTM层return_sequences参数的坑
具体用法我就不赘述了,可以参考中文文档https://keras.io/zh/layers/recurrent/#lstm我主要记录一下坑,网络结构如下:model = Sequential()model.add(Embedding(257, 150, weights=[embedding_matrix], input_length=X.shape[1], trainable=False))model.add(SpatialDropout1D(0.55))# return_sequenc..原创 2021-08-16 19:47:36 · 2017 阅读 · 4 评论 -
Kares中Embeding层详解
Kares框架中的Embeding层究竟干了什么?简单来说就是一个查表操作,输入一串词id,输出一串对应的词向量。比如你输入一个2,他就输出他现在状态下的Embeding矩阵的第二行的那个词向量。所以要加载预训练的Embeding矩阵的话,需要将词id和Embeding矩阵的行对应好,比如,预训练的词id:2,对应的词向量为V2,则初始化Embeding矩阵的时候要把V2放在矩阵第2行。大约就是这个样子,具体细节可以参考这篇文章中一个非常简单的例子:https://www.jianshu.com/p原创 2021-08-14 15:15:13 · 292 阅读 · 0 评论