一.线性回归步骤
(1)使用test 数据集训练学习率,
(2)计算J(θ)的最小值
二.逻辑回归步骤
比照上面,多了一步错误分类
三.高偏差与高方差
高偏差:训练数据和交叉验证数据的错误都很大(左侧方框)
高方差:训练集的错误很少,交叉验证错误很多
加入正则化项后的结果(和上面的刚好相反)
四.学习曲线
当出现高偏差时:收集过多的数据也没有用,因为模型过于简单
在高方差的情况下,数据多可以使测试集的结果变得准确
解决不同问题的方法
使用神经网路拟合的方法:尝试一二三层隐藏层的Jcv,那个效果好就用哪个
五.查准率与召回率计算方法(当出现偏斜类数据时的检测方法)
如何衡量查准率和召回率:F值(调和平均数)
多参数保证偏差足够小,大量数据保证方差足够小,两者合二为一就是完美