神经网络训练过程

 

Cost Function:

 前向传播(Forward propagation)

反向传播(Back propagation)

 对于反向传播算法最直观的表示就是对于每个节点都计算这样一项(误差项):

计算完每个节点的误差之后我们便可以得到损失函数对于所有参数的偏导数

注:这里忽略了正则化项。(aj看成xj

直观表示:

 

 

 算法流程:

 

Δ为所有样本的一个矩阵:

 

:正则化项。

 

 随机初始化参数

    对于所有的参数我们必须初始化它们的值,而且它们的初始值不能设置成一样,比如都设置成0或1。如果设置成一样那么所有的a,δ,偏导,所有更新后参数等都会相等。即所有神经元的功能都相等,造成了高度冗余。所以我们必须随机化初始参数。

例如:

 

表示初始化了一个10*11的参数矩阵,且每个参数都属于[-ε, ε]

 

转载于:https://www.cnblogs.com/J-K-Guo/p/7236985.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值