![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 88
咻咻咻哈
这个作者很懒,什么都没留下…
展开
-
Lasso回归系列四:Group Lasso,Sparse Group Lasso
Lasso变体:Group Lasso,Sparse Group Lasso原创 2022-11-24 11:46:11 · 4588 阅读 · 0 评论 -
Lasso回归系列一:用LASSO回归做特征筛选踩坑记
用LASSO回归做特征筛选什么时候用,怎么用原创 2022-11-24 11:43:55 · 5917 阅读 · 2 评论 -
Lasso回归系列二:Lasso回归/岭回归的原理
Lasso回归/岭回归的原理原创 2022-11-24 11:22:38 · 9586 阅读 · 0 评论 -
Lasso回归系列三:机器学习中的L0, L1, L2, L2,1范数
机器学习中的L0, L1, L2, L2,1范数原创 2022-11-24 10:56:38 · 778 阅读 · 0 评论 -
Batch Normalization的原理和作用
Batch Normalization的原理和作用论文链接:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift(Machine Learning 2015)BN是什么在神经网络中,每一层的输出是下一层的输入,神经网络通过反向传播调整参数。但是我们知道在反向传播的过程中,每一层的参数根据前一层参数变化前的输出进行参数的调整,区别于SVM这些有固定输入的模型,这就导致神经网原创 2022-05-04 22:10:35 · 2306 阅读 · 0 评论 -
mixup
数据增强之mixup翻译 2022-04-20 22:40:28 · 867 阅读 · 2 评论