神经网络学习(十五)神经网络学习到了什么

系列博客是博主学习神经网络中相关的笔记和一些个人理解,仅为作者记录笔记之用,不免有很多细节不对之处。

这一节,我们看看到底神经网络学习到了什么。原本是要对卷积神经网络进行研究的,但是卷积神经网络的训练太慢了,我们就以BP网络为例,简单探寻一下吧。

那么,我们如何去探寻一个神经元学习到了什么呢?我们可以这样做:定义一个神经元的激活度,然后找到可以最大化激活这个神经元的输入 x x ,通过 x 看看神经元学习了什么。对于全连接的神经元可以定义如下的一个目标函数

x=argmaxalj x ∗ = arg ⁡ max a j l
这个 x x ∗ 就是我们要考察的对象。对于上面的这个目标函数,我们可以使用其他的代价函数代替,比如前面我们学校的交叉熵代价函数,它们的本质是一致的,通过不断训练使分类结果接近真实标签。这样我们就不需要对正向传播和反向传播进行做太大更改了。

由于使用常规的正向传播算法,我们只需要关心反向传播即可。如何进行反向传播误差呢?有了前面的咱们推导的基础,这个就非常简单了–依旧是我们的核心运算:链式法则:

Cal1=Czlzlal1=(wl)Tδl ∂ C ∂ a l − 1 = ∂ C ∂ z l ∂ z l ∂ a l − 1 = ( w l ) T δ l
通过这个递推式,我们就可以递推到第一个输入上。输入的更新公式为
x=xηδ1 x ∗ = x ∗ − η δ 1

好了,下面咱们看看可以最大化激活输出神经元的输入吧

这里写图片描述

Whoops…….完全没有期待中的数字,上面这个图说明,即使我们给网络输入一堆电视雪花一样的数值,我们也可以得到一个分类结果。机器学习到的东西与我们的认识是非常不一样的。加入一些稀疏性,即对代价函数添加一个L!正则化项( x=xηλsgn(x)ηδ1 x ∗ = x ∗ − η λ sgn ( x ∗ ) − η δ 1 ),情况大为好转,隐隐约约可以看到数字的模样。

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值