神经网络与机器学习 笔记—改善反向传播的性能试探法

本文总结了8种提高反向传播算法效率的方法,包括随机和批量更新、最大化信息内容选择训练样本、选用特定激活函数、合理设定目标值、输入标准化、处理相关输入变量、初始化权重以及学习率调整。通过这些策略,可以加速神经网络的训练过程并提高学习质量。
摘要由CSDN通过智能技术生成

改善反向传播的性能试探法

整理8个能提高BP效率的方法:

 

  1. 随机和批量方式更新

反向传播学习的随机(串行)方式(涉及一个模式接一个模式的更新)要比批量方式

计算快。特别是当新联数据集很大且高度冗余时,更是如此。(批量学习再高度冗余的时候Jacobi矩阵会很麻烦)

  1. 最大信息内容

作为一个基本的规则,对呈现给反向传播算法的每一个训练样本的挑选必须建立在其信息内容对解决问题有很大可能的基础上。达到这个目标的两种方法是:

使用训练误差最大的样本。

使用的样本要与以前使用的有区别。

这两个试探方法起因于对权空间进行更多搜索的愿望。

在模式分类的任务中使用串行反向传播学习,经常使用的一个简单技巧是将样本的每个回合呈现给多层感知器的顺序随机化(即弄乱)。理想情况下,随机化可以确保一个回合中的相继的样本很少属于同一类。

  1. 激活函数

建议选择奇函数的sigmoid激活函数即

F(-v) = - F(v)

如下的双曲正切

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值