- 博客(2)
- 资源 (1)
- 收藏
- 关注
翻译 Seq2Seq+Attention+Pytorch实现Translation
Fromhttps://github.com/spro/practical-pytorch/blob/master/seq2seq-translation/seq2seq-translation.ipynb数据集代码解析class EncoderRNN(nn.Module): def __init__(self, input_size, hidden_size, n_layers=...
2019-03-26 11:02:40 1904 1
翻译 LSTM学习总结
LSTM一般结构Forget Gate LayerDetailft=σ(Wf∗[ht−1,xt]+bf) f_{t}=\sigma (W_{f}*[h_{t-1},x_{t}]+b_f)ft=σ(Wf∗[ht−1,xt]+bf)决定信息保留程度,“1”代表完全保留,“0”代表完全舍弃Input Gate LayerDetailit=σ(Wi∗[ht−1,xt]+bi) ...
2019-03-19 10:48:49 606
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人