很多model都有独特的演变过程 由简至繁
线性回归最简单到一点点加入model额外限制 引入非线性
再在基础上加入单位阶跃函数将regression model变为classification model 又考虑到其不可微分的性质变为可替代函数sigmoid
一. 线性回归
y=wx+b 损失由均方误差提供 这一求解方法称为最小二乘法
二. 对数线性模型回归
引入了非线性 使用ln 类似于深度学习中的activation func去给model引入非线性
三. 广义线性模型
即在y=wx+b引入单调可微函数 即更为普遍使用 而对数线性模型回归则可看做是其中一个特例
四. 对数几率回归
一种分类方法 用线性回归模型预测结果逼近真实标记
五. 多分类问题
一对一: N个类别两两配对
一对其余:将其中一个类别作为一类 其余作为另外一类
多对多:若干类作为一类 其他若干作为另外一类 一对一和一对其余是两个例子
六. 类别不平衡
再缩放 通过自动根据正负样本设置阈值
欠采样 去除一些类别过多的 但不可去除郭队随机的样例 造成信息丢失
过采样 多加一些类别过少的 但不可重复采样 容易过拟合 可以通过SMOTE对较少类别进行插值得到额外的数据
* 还是有很多数学内容没看太理解诶 等第二次回顾再来更新!