逻辑回归的梯度下降:
对w和b求偏导结果与线性回归是相似的(神奇);
但事实上并不一样:
训练逻辑回归模型:sklearn函数
过拟合(overfitting):
即使非常适合训练集但也因为太适合数据,因此是过拟合(高方差);这个模型不具有泛化到新样本的能力;
欠拟合(高偏差);
适中(泛化);
解决过拟合:
①更多的训练数据;
②是否可以使用更少的特征;
③使用正则化来减小参数的大小(better);
线性回归正则化:
在代价函数后边加上一个正则项;
lambda需要选择一个合适的值不能太大也不能太小;
逻辑回归正则化: