循环神经网络的高级用法

本文介绍了三种提升循环神经网络性能的高级技巧:1) 循环dropout,用于减少过拟合;2) 堆叠循环层,增强网络表达力;3) 双向循环层,提供不同视角,提高精度。此外,还讨论了基准方法在深度学习中的作用,包括基于常识的基准和基本机器学习方法。
摘要由CSDN通过智能技术生成

本文将介绍提高神经网络的性能和泛化能力的三种高级技巧。

1)循环dropout(recurrent dropout)。这是一种特殊的内置方法,在循环层中使用dropout来降低过拟合。

2)堆叠循环层(stacking recurrent layers)。这会提高网络的表示能力(代价是更高的计算负荷)。

3)双向循环层(bidirectional recurrent layer)。将相同的信息以不同的方式呈现给循环网络,可以提高精度并缓解遗忘问题。

基准方法的作用: 

1)一种基于常识的、非机器学习的基准方法

      深度学习建模前,先尝试一种基于常识的简单方法,它可以作为合理性检查;同时,建立一个基准,更高级的机器学习模型【深度模型】需要打败这个基准才能表现出其有效性。

       面对一个尚没有解决方案的新问题时,这种基于常识的基准方法会有用。

       例子:

       不平衡分类任务,其中某些类别比其他类别更常见。如果数据集中包含90%的类别A实例和10%的类别B实例,那么分类任务的一种基于常识的方法就是对新样本始终预测类别"A“。这种分类器的总体精度为90%,因此任何基于学习到方法在精度高于90%时才能证明其有效性。

        有时候基准方法可能很难打败。

2)一种基本的机器学习方法

       在尝试机器学习方法之前,建立一个基于常识的基准方法是很有用的;同样,在开始研究复杂且计算代价很高的模型(比如 RNN)之前,尝试使用简单且计算代价的机器学习模型也是很有用的,比如小型的密

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值