神经网络的参数初始化

注: 本文是学习吴恩达老师机器学习公开课的学习笔记。

1. 对于神经网络fminunc函数,我们需要初始化神经网络的initialTheta的参数。对于逻辑回归来说,我们可以全部初始化为0,但是对于神经网络来说将initialTheta全部初始化为0是不可以的。

2.为什么全部初始化成0是不可以的呢?

如果所有参数初始化成0,那么隐藏层的每个节点的输出都是相同的,而且每个参数对成本函数的偏导数也是相同的。

对于每一次更新所计算的输出都是相同的。这样隐藏层即使有许多的节点,实际上他们的输入是一样的,这样他们也只是在做相同的计算。这样神经网络的隐藏层的节点是冗余的(highly redundant representation)


3. 为了使得参数不一样,可以利用随机初始化。

可以使用下面的办法将所有的参数初始化到[-epsilon epsilon]之间。rand(10,11) 返回的是(取值为0和1之间)10x11的matrix



  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值