神经网络-课程作业记录

以下是手绘的一个三层神经网络传播的一个流程图
FP

forward propagation的计算没有问题:
FP

然后得到Neural Networks的Cost Function:
这里写图片描述

然后是BP算法用来计算J(θ)对每一个θ的偏导数
以下是Backpropagation Algorithm:
BP

计算方法:
对于给定 θ(l)ij ,考虑 Z(l+1) ,它只参与了 Z(l+1)i 的计算,于是问题转换到了 J(Z(l+1))Z(l+1)i ,而对于 JZ(l+1)i 的计算又要通过对 JZ(l+2)i 的计算。
定义“残差” δ(l)i JZ(l)i (直观上就是对 Jθ(l1)ij 的大小,越大表示没有到最优化)。
在视频和作业中,定义 δ(nl)i ( nl 为网络的层数) :直接是 δ(nl)i=(a(nl)iyi) 。然后经计算, δ(l)i=(Θ(l))Tδ(l+1)i.g(z(l)i)

即:
这里写图片描述
W就是 Θ 矩阵, b为bias项(就是乘1项)相应的 Θ
梯度下降过程:
反复迭代:
这里写图片描述

注意对于 Θ 矩阵随机初始化过程:
这里写图片描述

最后我们来看看我们作业中,这个三层神经网络的隐藏层做了什么(虽然不明白它表示了什么):
这里写图片描述

Reference:
张睿卿(Rachel Zhang)的博客:
http://blog.csdn.net/abcjennifer/article/details/7758797
Pro. Ng的UFLDL教程及相关中文翻译:
http://t.cn/zYn4Ugl

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值