机器学习两大主要任务:回归 分类
回归
定义:Regression 就是找到一个函数 functionfunction ,通过输入特征 xx,输出一个数值 ScalarScalar。
模型步骤
step1:模型假设,选择模型框架(线性模型)
- 一元线性回归
- 多元线性回归
通过多个特征还是一个特征区分,根本还是由我们的输入去得到一个输出
step2:模型评估,如何判断众多模型的好坏(损失函数)
损失函数用来评价模型的预测值和真实值不一样的程度,损失函数越好,通常模型的性能越好。不同的模型用的损失函数一般也不一样。
step3:模型优化,如何筛选最优的模型(梯度下降)
梯度下降法(英語:Gradien descent)是一个一阶最优化算法,通常也称为最陡下降法,但是不該與近似積分的最陡下降法(英語:Method of steepes descent)混淆 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。
过拟合
在训练集上面表现更为优秀的模型,为什么在测试集上效果反而变差了?这就是模型在训练集上过拟合的问题。
训练出的模型对于样本集一下我们不需要的特征也保留了,这就导致再用以去训练新的数据时,也会带有这一不需要的特征。
参考:
https://datawhalechina.github.io/leeml-notes/#/