- 博客(1)
- 收藏
- 关注
转载 Neural Turing Machine
IntroductionRecurrent Neural Network 在进行Gradient Descent 的时候,会遇到所谓的Vanishing Gradient Problem ,也就是说,在后面时间点的所算出的修正量,要回传去修正较前面时间的参数值,此修正量会随着时间传递而衰减。为了改善此问题,可以用类神经网路模拟记忆体的构造,把前面神经元所算出的值,储存起来。例如: Long
2015-11-23 11:28:46
642
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人