深度学习中超参与调参

参数(parameters)和超参数(hyperparameters)

在机器学习或者深度学习领域,参数和超参数是一个常见的问题,个人根据经验给出了一个很狭隘的区分这两种参数的方法。

参数:就是模型可以根据数据可以自动学习出的变量,应该就是参数。比如,深度学习的权重,偏差等

超参数:就是用来确定模型的一些参数,超参数不同,模型是不同的(这个模型不同的意思就是有微小的区别,比如假设都是CNN模型,如果层数不同,模型不一样,虽然都是CNN模型哈。),超参数一般就是根据经验确定的变量。在深度学习中,超参数有:学习速率,迭代次数,层数,每层神经元的个数等等。


深度学习 调参数

这次活动的主题是 hyperparameter optimization 和 bayesian optimization,简单说就是如何更有效率地调参,或者。。如何调得一手好参。这个方向近几年论文出来不少,研究潜力不小;而且实用性很强,不仅可用在深度学习中,也可用于其他机器学习方法的调参。选几篇论文讨论清楚,我想无论对学术还是工程都会有不小帮助。


主要讨论以下几篇论文:

1.  Algorithms for Hyper-Parameter Optimization, by  James Bergstra,可以说是深度学习兴起后最早讨论调参的论文之一,其中第三节提到用Gaussian Process建立超参数与验证集错误率之间的关系,实际上就是BO的思想,后面几节还讨论了另外几种调参的方法和技巧
2.  Random Search for Hyper-Parameter Optimization, by  James Bergstra,提出在选择超参数时,random search的策略比grid search要好,并从理论和实验两方面进行分析
4.  Practical Bayesian Optimization of Machine Learning Algorithms, by  Jasper Snoek,专门讨论如何在机器学习调参中应用BO
5.  Bayesian Optimization in High Dimensions via Random Embeddings, by  Ziyu Wang,对在高维问题中应用BO提出一种解决方法
6.  Bayesian Optimization Explains Human Active Search, by  Ali Borji,主要是通过一系列实验,说明BO与人类思维活动和搜索策略的异同,内容比较有趣

代码:

对这个方向感兴趣的朋友,可以持续关注James Bergstra、Jasper Snoek、Nando De Freitas组的研究。


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值