![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
推荐算法
DataAlgo
想玩数据又想搞模型!
展开
-
训练集、验证集、测试集以及交叉验证的理解
训练集、验证集、测试集以及交验验证的理解转载 2022-03-08 18:17:51 · 378 阅读 · 0 评论 -
BatchNorm和LayerNorm的区别
BatchNorm: 对一个batch-size样本内的每个特征做归一化LayerNorm: 针对每条样本,对每条样本的所有特征做归一化简单举例:假设现在有个二维矩阵:行代表batch-size, 列表示样本特征BatchNorm就是对这个二维矩阵中每一列的特征做归一化,也就是竖着做归一化LayerNorm就是对这个二维矩阵中每一行数据做归一化相同点: 都是在深度学习中让当前层的参数稳定下来,避免梯度消失或者梯度爆炸,方便后面的继续学习**不同点:如果你的特征依赖不同样本的统计参数,那原创 2021-11-22 10:36:33 · 10964 阅读 · 0 评论 -
谷歌双塔模型原理及Estimator实现
谷歌双塔模型原理及Estimator实现原创 2021-06-07 17:51:34 · 1322 阅读 · 1 评论