深度学习
文章平均质量分 51
whut_ldz
这个作者很懒,什么都没留下…
展开
-
(继)pytorch中的pretrain模型网络结构修改
继上篇文章提出的两种预训练模型的修改方法外,今天在这里推荐我新学习到的一种方法:这里还是以resnet模型为参考,在去掉预训练resnet模型的后两层(fc层和pooling层)后,新添加一个反卷积层、池化层和分类层。那么对于网络的修改怎样可以快速的去除model本身的网络层呢?一个继承nn.module的model它包含一个叫做children()的函数,这个函数可以用来提取出mod原创 2017-12-22 16:52:44 · 17787 阅读 · 6 评论 -
Python:机器学习的ROC曲线、AUC计算,以及相应的代码
ROC曲线的原理以及绘制方法参考点击打开链接,这里主要是对原理部分的代码实现。对于每一个给定的阈值threshold,我们都可以算出有关的TPR、FPR参数,这里我写了以下函数来实现该功能,函数的输入有result和thres两部分。前一部分是包含两个array,第一个array用来存储每一个样本是正样本概率,第二个array则是每个样本的label属性(0或1);后一部分则是选取的阈值,代码转载 2017-12-22 17:23:44 · 31453 阅读 · 4 评论 -
机器学习:如何找到最优学习率
原文见点击打开链接学习率的重要性目前深度学习使用的都是非常简单的一阶收敛算法,梯度下降法,不管有多少自适应的优化算法,本质上都是对梯度下降法的各种变形,所以初始学习率对深层网络的收敛起着决定性的作用,下面就是梯度下降法的公式[Math Processing Error]w:=w−α∂∂wloss(w)这里[Math Processing Error]α就是学习率转载 2017-12-23 23:22:12 · 21365 阅读 · 1 评论