LSTM需要学习的参数个数

 结论先行:

lstm所需学习的参数 = 4 * [(  input_size + hidden_num )*  hidden_num + hidden_num ]

我们知道输入一个28维的向量,会映射到128维来进行表示,

输出ht和记忆ct维度相同。

下面我们假设有13*5大小的图片,放进LSTM,隐含层神经元数量为10

 

ht-1 是上一时刻的输出,维数与隐含层神经元数量一致:1*10

xt为1*5 所以[ ht-1 , xt ] 的维数是1*15

又因为激活函数不改变位数维数,所以我们不必考虑

Wf  bf 为该层的参数,Wf  与 [ ht-1 , xt ] 相乘得到 1*10的向量

所以可以得出 Wf 的维数是 15*10    即:Wf  × [ ht-1 , xt ] = 15*10  × 1*15  = 1*10

所以参数个数为Wf  + bf  = 15*10 + 10 = 160个

剩下的操作与这个遗忘门的操作在参数数量上相同

故 LSTM的所需学习参数个数为 160*4 = 640个

 

 

最后图片参考自:

https://www.cnblogs.com/wushaogui/p/9176617.html#1lstm%E7%AE%80%E5%8D%95%E4%BB%8B%E7%BB%8D

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LSTM是一种常用的循环神经网络模型,对于机器人模型参数的辩识,可以有以下几个方面的考虑: 1. 输入参数的辩识:机器人模型通常需要输入一些参数来完成特定任务,如语音识别的声音特征、图像识别的图片数据等。对于LSTM模型,可以通过对输入参数的调整和变化观察到模型输出结果的差异,从而识别出参数对模型输出的影响程度。 2. 隐藏层参数的辩识:LSTM模型有一个重要的组件是隐藏层,隐藏层的参数包括记忆单元状态、输出等。通过对隐藏层参数的调整,观察输出结果的变化,可以辩识出隐藏层参数对模型的影响。 3. 输出参数的辩识:机器人模型通常需要输出一些结果或决策,如自动驾驶的转向决策、语义理解的自然语言生成等。调整LSTM模型的输出参数,观察输出结果的变化,可以辩识出输出参数对模型输出的影响。 4. 模型的超参数的辩识:LSTM模型的超参数包括学习率、迭代次数、正则化参数等。通过调整超参数,可以比较不同参数取值下模型的性能表现,从而辩识出超参数对模型的影响。 总之,LSTM机器人模型参数的辩识可以通过调整输入参数、隐藏层参数、输出参数和超参数的取值,观察模型输出结果的变化,以及模型性能的表现来完成。同时还可以利用一些辅助工具和方法,如梯度下降算法和模型评估指标来辅助参数的辩识工作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值