- 博客(4)
- 收藏
- 关注
原创 如何防止过拟合(overfitting)
为了得到一致假设而使假设变得过度复杂称为过拟合(overfitting),过拟合表现在训练好的模型在训练集上效果很好,但是在测试集上效果差。也就是说模型的泛化能力弱。在很多问题中,我们费心费力收集到的数据集并不能穷尽所有的状态,而且一般训练得到的模型被用来预测未知数据的结果,模型虽然在训练集上效果很好,但是在实际应用中效果差,就说明这个模型训练的并不是很成功,还需要改进。就譬如下方的图像中,左边...
2018-09-30 10:41:32 50747 1
原创 机器学习和深度学习中的损失函数
损失函数(loss function)是用来估量模型的预测值与真实值的不一致程度,它是一个非负函数,记为一般来说,损失函数越小,模型的鲁棒性越好。损失函数分为经验风险损失函数和结构风险损失函数。经验风险损失函数表示预测值与真实值之间的差异,结构风险损失函数是指经验风险损失函数加上正则化。一般形式为: ...
2018-09-29 11:37:31 4876
原创 逻辑回归LR vs 支持向量机SVM
目录LR vs SVMLR和SVM的相同点LR和SVM的不同点逻辑回归LRLR损失函数LR公式推导支持向量机SVM间隔和支持向量对偶问题核函数软间隔和正则化LR vs SVMLR和SVM的相同点都是监督学习算法(都需要有样本进行训练) 如果不考虑核函数,LR和SVM都是线性分类算法 都是判别模型(判别模型会生成一个表示P(y|x)的判别函...
2018-09-27 11:08:09 2738 1
原创 官方卷积神经网络cifar10源码的学习笔记(多块GPU)
先前只有自己的游戏本有一块GTX1050的GPU,所以对于官方的卷积神经网络教程,仅仅是按照自己的理解将教程简单化,具体见博客卷积神经网络:CIFAR-10训练和测试(单块GPU),现如今导师提供了具有两块GTX1080TiGPU 的工作站,硬件条件支持了,所以就将此教程完全实现一遍。源码见:https://github.com/skloisMary/cifar10-CNN1. tf.app....
2018-09-21 19:40:24 2035
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人