两个偏导数:
逻辑回归的梯度下降:
泛化(generalization):对全新的示例也能做出良好的预测
解决过拟合的方法:
1.收集更多的测试数据
2.特征选择(feature selection):使用更少的特征
3.正则化(regularization):鼓励算法减小参数 w 的大小
两个偏导数:
逻辑回归的梯度下降:
泛化(generalization):对全新的示例也能做出良好的预测
解决过拟合的方法:
1.收集更多的测试数据
2.特征选择(feature selection):使用更少的特征
3.正则化(regularization):鼓励算法减小参数 w 的大小