优化概率神经网络_无需任何训练即可获得最佳的神经网络性能

本文探讨了神经网络过参数化现象,指出随机初始化的网络为何能表现出与训练后的网络相似的性能。传统的正则化并非解决泛化问题的关键,而是神经网络修剪提供了新的视角。彩票假说认为,神经网络中存在「中奖彩票」子网,即使大幅度修剪权重也能保持性能。通过迭代幅度修剪和边缘弹出算法,可以从随机权重的网络中找到具有竞争力的子网,挑战了我们对深度学习和训练过程的理解。
摘要由CSDN通过智能技术生成

这是 @小白遇见AI 的第 24 篇推文

a68dbd4a504af4efc50bc42e52e88471.png

应该如何解释神经网络过参数化的现象呢?

当我们尝试用最近的研究来回答这个问题时,我们会发现我们对神经网络的了解比我们想象的要少得多,并且并不理解为什么随机初始化的网络可以像训练有素的网络一样好。

在更标准的机器学习实践中,会通过池化,以尽量减少模型参数的数量,以防止过度拟合,确保真正的学习,而不是死记硬背。另一方面,机器学习工程师只是不断地填充神经网络,使其变得越来越大,并且以某种方式起作用。这违反了常识。

现代神经网络在训练集上达到99.9%甚至100%的准确性并不少见,这通常是警告过度拟合。但是,令人惊讶的是,神经网络可以达到类似的高测试集分数。

关于神经网络为什么不会过拟合的一个常见答案是正则化的作用。不幸的是,事实并非如此-在Zhang等人进行的一项研究中,没有各种正则化方法的Inception架构的性能并没有比具有正则化的体系结构差很多。因此,不能说正则化是泛化的基础。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MATLAB神经网络43个案例分析源代码&数据 《MATLAB 神经网络43个案例分析》目录 第1章 BP神经网络的数据分类——语音特征信号分类 第2章 BP神经网络的非线性系统建模——非线性函数拟合 第3章 遗传算法优化BP神经网络——非线性函数拟合 第4章 神经网络遗传算法函数极值寻优——非线性函数极值寻优 第5章 基于BP_Adaboost的强分类器设计——公司财务预警建模 第6章 PID神经元网络解耦控制算法——多变量系统控制 第7章 RBF网络的回归--非线性函数回归的实现 第8章 GRNN网络的预测----基于广义回归神经网络的货运量预测 第9章 离散Hopfield神经网络的联想记忆——数字识别 第10章 离散Hopfield神经网络的分类——高校科研能力评价 第11章 连续Hopfield神经网络优化——旅行商问题优化计算 第12章 初始SVM分类与回归 第13章 LIBSVM参数实例详解 第14章 基于SVM的数据分类预测——意大利葡萄酒种类识别 第15章 SVM的参数优化——如何更好的提升分类器的性能 第16章 基于SVM的回归预测分析——上证指数开盘指数预测. 第17章 基于SVM的信息粒化时序回归预测——上证指数开盘指数变化趋势和变化空间预测 第18章 基于SVM的图像分割-真彩色图像分割 第19章 基于SVM的手写字体识别 第20章 LIBSVM-FarutoUltimate工具箱及GUI版本介绍与使用 第21章 自组织竞争网络在模式分类中的应用—患者癌症发病预测 第22章 SOM神经网络的数据分类--柴油机故障诊断 第23章 Elman神经网络的数据预测----电力负荷预测模型研究 第24章 概率神经网络的分类预测--基于PNN的变压器故障诊断 第25章 基于MIV的神经网络变量筛选----基于BP神经网络的变量筛选 第26章 LVQ神经网络的分类——乳腺肿瘤诊断 第27章 LVQ神经网络的预测——人脸朝向识别 第28章 决策树分类器的应用研究——乳腺癌诊断 第29章 极限学习机在回归拟合及分类问题中的应用研究——对比实验 第30章 基于随机森林思想的组合分类器设计——乳腺癌诊断 第31章 思维进化算法优化BP神经网络——非线性函数拟合 第32章 小波神经网络的时间序列预测——短时交通流量预测 第33章 模糊神经网络的预测算法——嘉陵江水质评价 第34章 广义神经网络的聚类算法——网络入侵聚类 第35章 粒子群优化算法的寻优算法——非线性函数极值寻优 第36章 遗传算法优化计算——建模自变量降维 第37章 基于灰色神经网络的预测算法研究——订单需求预测 第38章 基于Kohonen网络的聚类算法——网络入侵聚类 第39章 神经网络GUI的实现——基于GUI的神经网络拟合、模式识别、聚类 第40章 动态神经网络时间序列预测研究——基于MATLAB的NARX实现 第41章 定制神经网络的实现——神经网络的个性化建模与仿真 第42章 并行运算与神经网络——基于CPU/GPU的并行神经网络运算 第43章 神经网络高效编程技巧——基于MATLAB R2012b新版本特性的探讨
贝叶斯神经网络是将贝叶斯方法和神经网络结合的一种方法。在实践中,训练贝叶斯神经网络是一项具有挑战性的任务。最流行的训练神经网络的方法是反向传播算法,而我们可以使用反向传播算法来训练贝叶斯神经网络。贝叶斯神经网络的目标是通过考虑不确定性来提高神经网络性能和鲁棒性。通过引入概率分布来表示权重和偏置项的不确定性,贝叶斯神经网络可以提供更加准确的预测和更可靠的不确定性估计。贝叶斯神经网络训练过程涉及到对权重和偏置项的后验分布进行推断,通常使用一些近似推断方法来简化计算。总的来说,贝叶斯神经网络是一种优化概率神经网络的方法,它可以提供更加准确和可靠的预测结果。\[2\] #### 引用[.reference_title] - *1* [优化概率神经网络_贝叶斯神经网络最新综述](https://blog.csdn.net/weixin_39695323/article/details/111049287)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [优化概率神经网络_贝叶斯神经网络(系列):第二篇](https://blog.csdn.net/weixin_39747630/article/details/110243953)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值