task04 分类问题

  1. 回归问题和分类问题的联系和区别、如何利用回归解决分类问题
  2. 为什么分类问题的损失函数可以是交叉熵而不是均方误差
  3. 线性判别分析和逻辑回归在估计参数方面有何异同
  4. 二次判别分析,线性判别分析,朴素贝叶斯之间的联系和区别
  5. python+numpy实现逻辑回归
    1 都是对输入的数据进行预测。输出不同,分类输出的是离散值,回归是连续值
    2 先看两者公式:
    最小均方误差,MSE(Mean Squared Error)Loss
    L_{mse} = \frac{1}{2}(a - y)^2
    交叉熵误差CEE(Cross Entropy Error)Loss
    L_{cee} = -(y*ln(a) + (1-y)*ln(1-a))

看下这两个Loss function对w的导数,也就是SGD梯度下降时,w的梯度。
sigmoid \sigma^{’}(z) 在输出接近 0 和 1 的时候是非常小的,故导致在使用最小均方差Loss时,模型参数w会学习的非常慢。而使用交叉熵Loss则没有这个问题。为了更快的学习速度,分类问题一般采用交叉熵损失函数。
3 线性回归的参数计算方法是最小二乘法,逻辑回归的参数计算方法是梯度下降
4 朴素贝叶斯:对线性回归分类的简化

在线性判别分析中,我们假设每种分类类别下的特征遵循同一个协方差矩阵,每两个特征之间是存在协方差的,因此在线性判别分析中各种特征是不是独立的。但是,朴素贝叶斯算法对线性判别分析作进一步的模型简化,它将线性判别分析中的协方差矩阵中的协方差全部变成0,只保留各自特征的方差,也就是朴素贝叶斯假设各个特征之间是不相关的。在之前所看到的偏差-方差理论中,我们知道模型的简化可以带来方差的减少但是增加偏差,因此朴素贝叶斯也不例外,它比线性判别分析模型的方差小,偏差大。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值