logit模型应用实例_机器学习笔记(二)——线性回归模型&线性分类模型

本文详细介绍了线性模型,包括一元和多元线性回归,以及如何处理离散变量。接着探讨了线性分类模型,重点讲解了逻辑回归的原理和优点,并对比了线性判别分析(LDA)与主成分分析(PCA)。此外,还讨论了线性多分类学习和类别不平衡问题的解决方案。
摘要由CSDN通过智能技术生成

3082c1ddecc560c222bc56249dff9576.png

模型

一、线性模型(linear model)

(一)线性回归

1.一元线性回归

1.1公式表示:f(x)=wxi+b

34bafc885932a3460dc06cc040a4939b.png
向量形式

1.2线性回归模型的好处简单、可理解

1.3线性回归模型因变量是离散变量的处理方法:

    • 如果属性是离散的,有序的,则可以编码为0-1-2……,例如西瓜的甜度由不甜-稍甜-特甜,之间有程度的加深,可以比较,因此可以编码为数字,大一点的数字意味着强度更高;
    • 如果属性是离散,非有序的,则可以进行“one-hot”独热编码,将结果变成k维向量进行回归。(如果编码为0123的话,机器学习会误以为有“序”的关系)

1.4使线性回归模型结果的误差最小化方法

    • 均方误差最小化,即最小二乘法,使得
      最小,将f(x)=wxi+b代入,即E(w,b)=
      最小化,转化成了
      对w,b求梯度导数为0的点,得到闭式解(closed-form),套公式就可以求出w,b;

2.多元线性回归(multi-variate)

实际中可能需要拟合多个特征,同时考虑多个特征来预测输出,需要找到超平面去逼近结果

2.1公式: f(xi)=w

xi+b,xi=(xi1,xi2,xi3,xi4……)

2.2多元线性回归同样采用最小二乘法进行求解,对w,b进行求导,闭式解,这里涉及矩阵求逆,在处理高维数据时,闭式解不一定合适,可以根据实际情况选择梯度下降等其他优化方法。这里补充几个矩阵的基本知识:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值