神经元细节

单个神经元的模型如下图所示:

神经元模型

在右图中,神经元的激励反应可分为两大部分:
1、神经元接受刺激,并对所有的刺激进行加权求和,然后加上偏置,得到激励值;
2、将激励值作为输入,输入到激活函数,最后通过激励函数的作用得到最后的响应;
注意:这里总共分为两个过程,不能忽视最后激活函数的作用。

一个线性分类器就可以看作是一个单个神经元,其中的线性指对各个刺激Xi的线性加权,激活函数f将刺激映射到各个分类区间中去。

偏置的意义:
最基础的神经元感知器如下:
无激活函数的感知器

这个例子中输入为x_1, x_2, x_3 三个变量, 输出为0或1. 当三个变量的加权和 iwixi 大于某个阈值的时候, 输出为1, 反之为0.

output={01if iwixi<threshold if iwixithreshold 

注意这里的阈值, 它度量了神经元产生正(负)激励的难易程度.也就是说,在上文的模型中, 阈值越大, 产生正激励的难度越大.

而为了更好的计算和表达,我们可以把其中的b和 iwixi 移到同一边,同时给他取了一个不错的名字,叫做偏置Bias,而w叫做权重weight!

output={01if iwixi+b<0if iwixi+b0 

也就是说: 偏置的大小度量了神经元产生正(负)激励的难易程度.

这是最简单的感知器神经元. 而现代神经网络中常用的Sigmoid, tanh或是ReLU都是在 wx+b 的基础上加上一个激活函数, Bias也就是b的意义是一样的。

同时对于偏置需要注意的点是:偏置是不需要正则化的,并且正则化偏置的话会导致欠拟合。我们从意义上去理解话,若对偏置正则化(惩罚),会导致激活变得更加简单,偏差就会上升,学习的能力就会下降!

https://zhuanlan.zhihu.com/p/29633019

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值