深度学习
樱桃小丸犊孑
一句话介绍不完
展开
-
深度学习之:LOSS和范式总结
监督机器学习问题无非就是“minimizeyour error while regularizing your parameters”,也就是在规则化参数的同时最小化误差。 最小化误差是为了让我们的模型拟合我们的训练数据,而规则化参数是防止我们的模型过分拟合我们的训练数据。多么简约的哲学啊!因为参数太多,会导致我们的模型复杂度上升,容易过拟合,也就是我们的训练误差会很小。但训练误差小并...转载 2019-07-26 11:47:17 · 1235 阅读 · 0 评论 -
深度学习之:交叉熵和KL散度区别
交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以...转载 2019-07-26 15:29:54 · 474 阅读 · 0 评论 -
深度学习之:L1和L2正则化
机器学习中,如果参数过多,模型过于复杂,容易造成过拟合(overfit)。即模型在训练样本数据上表现的很好,但在实际测试...转载 2019-07-26 16:22:03 · 369 阅读 · 0 评论