- 博客(10)
- 收藏
- 关注
原创 损失函数集合
熵(Entropy),交叉熵(Cross-Entropy):一文搞懂熵(Entropy),交叉熵(Cross-Entropy) - 知乎 (zhihu.com)交叉熵损失函数:交叉熵损失(Cross Entropy Loss)计算过程_交叉熵损失计算-CSDN博客
2023-12-07 16:27:03 38 1
原创 机器学习 乱七八糟
L2正则化对于绝对值较大的权重予以很重的惩罚,对于绝对值很小的权重予以非常非常小的惩罚,当权重绝对值趋近于0时,基本不惩罚。L1正则化的作用是使得大部分模型参数的值等于0,
2023-11-19 11:46:20 45
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人