deep learning
COSummer
生物医学小硕一枚,现从事医疗软件研发
展开
-
计算直线与平面的交点
计算直线与平面的交点原创 2023-01-09 16:10:38 · 862 阅读 · 0 评论 -
LearningRate of DeepLearning
LearningRate of DeepLearning在这篇文章中,我会讲一种非常简单却有效的方法来确定合理的初始学习率1、这里我们关心的一个问题是初始学习率如何确定,当然有很多办法,一个比较笨的方法就是从0.0001开始尝试,然后用0.001,每个量级的学习率都去跑一下网络,然后观察一下loss的情况,选择一个相对合理的学习率,但是这种方法太耗时间了2、...原创 2023-01-09 16:08:49 · 96 阅读 · 0 评论 -
过拟合的简单理解
过拟合定义原创 2023-01-09 16:05:46 · 139 阅读 · 1 评论 -
模型评价(AUC,ROC曲线,ACC, 敏感性, 特异性,精确度,召回率,PPV, NPV, F1)
转载https://blog.csdn.net/sunflower_sara/article/details/81214897?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-3.add_param_isCf&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-3转载 2020-08-13 13:42:59 · 2617 阅读 · 0 评论 -
deep learning :the effect of pooling
链接:https://www.zhihu.com/question/36686900/answer/130890492来源:知乎主要是两个作用:1. invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)2. 保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力(1) transl...转载 2019-04-26 10:58:35 · 326 阅读 · 0 评论 -
deep learning: batch normalization
1、引入背景:那么网络中层与层之间的关联性会导致如下的状况:随着训练的进行,网络中的参数也随着梯度下降在不停更新。一方面,当底层网络中参数发生微弱变化时,由于每一层中的线性变换与非线性激活映射,这些微弱变化随着网络层数的加深而被放大(类似蝴蝶效应);另一方面,参数的变化导致每一层的输入分布会发生改变,进而上层的网络需要不停地去适应这些分布变化,使得我们的模型训练变得困难。上述这一现象叫做Int...原创 2019-05-09 15:57:28 · 208 阅读 · 0 评论 -
ResNet深度解析
图(1)为原始结构,图(5)为改进的resnet ,性能优于(1),原因详见以下链接参考https://blog.csdn.net/lanran2/article/details/80247515转载 2019-05-09 16:44:56 · 457 阅读 · 0 评论