Deep Learning课程作业中深度网络的习题备忘

Deep Learning的在线学习资料一直进展比较慢,开始的时候还可以,只有一层的训练,简单的BP算法求导然后使用L-gfbs就基本可以求出来解了。但是真正到了后面的深度网络的时候才算是真正的是Deep的Learning吧。


1:这节课是使用2层的sparse encoder然后给stacked起来,第二层的sparse encoder的输出直接带入到一个softmax层的输入,然后进行softmax的分类识别。单独的训练每一层的sparse encoder以及单独的softmax这些都是非常简单的,计算active层的值然后直接求partial derivative接着带入工具包直接迭代求解就是了。


2:这里要说的是每一层的weight都求出来了,如何统一进行fine tune(微调)。微调主要是撰写stackedAE的cost 以及求出来gradient,cost就不多说了指的是softmax层的cost。主要说下gradient。在本书中其实是不进行softmax层的weight的更新的,只需要更新其余两层的weight。对最有一层sparse encoder的权重的求偏导书上已经给出就是theta'(I-P)

theta就是softmax层的weight,I首先是一个向量,大小是label的数量,然后如果当前样本x属于第k个label那么I(label,1)=1, 其余都为0。P就是当前样本属于每个theta的概率。

然后倒数第二层的偏导就好求多了,直接根据课本上来就是了,具体的推导也很简单,推导最难的是对最后一层sparse encoder的求导。


3:总结下,主要是2个难点,第一个是cost指的是最后一层的cost,也就是softmax的cost;第二个是求偏导是直接从sparse encoder的最后一层开始,对于softmax的权重是不进行更新的。。


4:可以完全达到书本上的参考值,fine tune之前精度是87%点多,fine tune之后是97%点多

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值