单层神经网络数学基础

单层感知器结构的数学基础

在这里插入图片描述
输入是一个N维向量
在这里插入图片描述
其中的每一个分量都对应于一个权值"w",隐含层的输出叠加为一个标量值
输入与权值乘积和在这里插入图片描述
传递函数为在这里插入图片描述
在这里插入图片描述
其中 sgn函数为:
在这里插入图片描述
例如: 二维空间中的超平面是一条直线。在直线下方的点,输出-1;在直线上方的点,输出1。
分类面:b的作用为使得分割线不固定在原点,防止过原点的直线不能正确分类(如图中红色圆圈不能分类)。
在这里插入图片描述
在这里插入图片描述 在实际的应用中: 在这里插入图片描述
重新改写参数矩阵:
在这里插入图片描述
过程描述:
(1) 初始化。n=0,将权值向量 设置为随机值或全零值。
(2) 激活。输入训练样本,对每个训练样本指定其期望输出 。
在这里插入图片描述
(3) 计算实际输出。
在这里插入图片描述
(4)更新权值向量。
d(n)为目标值,y(n)为当次迭代输出值,μ为学习率,公式会用就行在这里插入图片描述
(5)判断。若满足收敛条件,算法结束;若不满足,n自增1,转到第2步继续执行。
停止迭代的条件为:
1. 误差小于某个预先设定的较小的值
2. 两次迭代之间的权值变化已经很小
3. 设定最大迭代次数M,当迭代了M次之后算法就停止迭代
(实际运行中条件混合使用,防止出现算法不收敛现象。)
确定学习率
1. 不应当过大,以便为输入向量提供一个比较稳定的权值估计
2. 不应当过小,以便使权值能够根据输入的向量x实时变化,体现误差对权值的修正作用
感知器的局限性
在这里插入图片描述
1. 感知器的激活函数使用阈值函数,输出值只有两种取值,限制了在分类种类上的扩展 。
2. 如果输入样本存在奇异样本(1,1,10000)输入向量差异很大,网络需要花费很长的时间。
3. 感知器的学习算法只对单层有效 。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值