deep learning toolbox学习使用2之NN

继续总结NN中的一些参数的使用,基本都是为了防止过拟合
1.权重衰减项weightpenaltyl2,在经过bp过程之后,需要更新w的值,此时使用penalty项,个人理解为规则化项,代码中是增加dw的值,因为更新w时是减去dw,所以相当于减少了权重的幅度,目的是防止overfitting,这一项我理解相当于ufldl中更新w时多减去的lamda w部分,和之前效果比,错误率降低,说明还是有实际效果。
2.dropout,在这里设的是0.5(应该可以再0.5-0.9之间浮动),大体思想是每次神经元不应该都激活,而是部分激活(考虑sparity?),因此在train的ff阶段,通过生成一个随机矩阵(与激活矩阵大小相同),通过dropout的筛选,只有大于的才被认为该神经元可以被激活,也就是可以产生非0的激活值。在bp、阶段,还是通过之前的随机矩阵,对相对应激活的神经元才进行残差的计算,因为没激活,也就没有产生残差,无需bp,目的也是为了防止过拟合,从实验效果看,错误率有所提高,个人感觉可能是参数阀值的影响。
3.最后NN中也有把之前hidden层使用tanh的激活函数换成统一的sigmoid,实验效果有所提升,具体激活函数个人感觉应该视情况而定,sigmoid坡度更缓,而双曲正切函数更陡。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Deep Learning Toolbox™提供了一个框架,用于设计和实现具有算法,预训练模型和应用程序的深度神经网络。您可以使用卷积神经网络(ConvNets,CNN)和长期短期记忆(LSTM)网络对图像,时间序列和文本数据进行分类和回归。应用程序和图表可帮助您可视化激活,编辑网络体系结构以及监控培训进度。 对于小型训练集,您可以使用预训练的深层网络模型(包括SqueezeNet,Inception-v3,ResNet-101,GoogLeNet和VGG-19)以及从TensorFlow™-Keras和Caffe导入的模型执行传输学习。 了解深度学习工具箱的基础知识 深度学习图像 从头开始训练卷积神经网络或使用预训练网络快速学习新任务 使用时间序列,序列和文本进行深度学习 为时间序列分类,回归和预测任务创建和训练网络 深度学习调整和可视化 绘制培训进度,评估准确性,进行预测,调整培训选项以及可视化网络学习的功能 并行和云中的深度学习 通过本地或云中的多个GPU扩展深度学习,并以交互方式或批量作业培训多个网络 深度学习应用 通过计算机视觉,图像处理,自动驾驶,信号和音频扩展深度学习工作流程 深度学习导入,导出和自定义 导入和导出网络,定义自定义深度学习图层以及自定义数据存储 深度学习代码生成 生成MATLAB代码或CUDA ®和C ++代码和部署深学习网络 函数逼近和聚类 使用浅层神经网络执行回归,分类和聚类 时间序列和控制系统 基于浅网络的模型非线性动态系统; 使用顺序数据进行预测。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值