- 博客(4)
- 收藏
- 关注
原创 python可视化图
http://www.machinelearningplus.com/plots/top-50-matplotlib-visualizations-the-master-plots-python/
2019-07-29 10:24:41 109
转载 深度学习之:L1和L2正则化
机器学习中,如果参数过多,模型过于复杂,容易造成过拟合(overfit)。即模型在训练样本数据上表现的很好,但在实际测试...
2019-07-26 16:22:03 372
转载 深度学习之:交叉熵和KL散度区别
交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以...
2019-07-26 15:29:54 476
转载 深度学习之:LOSS和范式总结
监督机器学习问题无非就是“minimizeyour error while regularizing your parameters”,也就是在规则化参数的同时最小化误差。 最小化误差是为了让我们的模型拟合我们的训练数据,而规则化参数是防止我们的模型过分拟合我们的训练数据。多么简约的哲学啊!因为参数太多,会导致我们的模型复杂度上升,容易过拟合,也就是我们的训练误差会很小。但训练误差小并...
2019-07-26 11:47:17 1237
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人