Logistic Regression

本文探讨了逻辑回归与线性回归在分类任务中的差异,指出在某些情况下,判别式模型(如逻辑回归)优于生成式模型(如高斯模型)。尽管逻辑回归在处理线性可分问题时有限制,但通过特征转换(如使用多个逻辑回归串联)可以构建神经网络。这种转换过程是深度学习的基础,其中每个逻辑回归单元可视为一个神经元。
摘要由CSDN通过智能技术生成

视频链接

我们要做的:

step 1:Function set

image-20210713152404077

Step 2: Goodness of a Function

image-20210713152632256

Step 3: Find the best function

image-20210713153417163

image-20210713153805350

把两项 分别代入:image-20210713153526808

Logistic Regression VS Linear Regression

image-20210713153305971

Logistic Regression + Square Error

image-20210713184117399

image-20210713184134460

Logistic Regression + Square Error

会出现距离目标很远 很近的时候微分算出来都是 0 。

如果选用Square Error这会造成很卡,离目标很远的时候,移动的速度是非常慢的。

image-20210713184509000

这个 Logistic Regression的方法,我们称它为Discriminative

之前用Gaussian来描述的方法,称为Generative

实际上他们的model 是一模一样的(但根据同一组training data 找出来的w 和b 是不一样的,因为做的假设不同(在Logistic Regression没有做任何假设,在Generative 是有假设的,假设它是Gaussian))

image-20210713185103536

哪一个找出来的参数是比较好的呢?

Discriminative 是比较好的

image-20210713185542987

为什么会这样呢?

举个简单的例子:

image-20210713193454095

image-20210713193430101

在naive Bayes中 Testing data中的“11” 被认为是class 2

Generative “脑补”了一下,它认为在class 2 中 可能会存在 “11”

• Benefit of generative model
• With the assumption of probability distribution, less training data is needed
• With the assumption of probability distribution,more robust to the noise
• Priors and class-dependent probabilities can be estimated from different sources.

在概率分布假设下,需要的训练数据较少

采用概率分布的假设,对噪声更有鲁棒性

先验和类相关的概率可以从不同的来源估计

Multi-class Classificaation

image-20210713201832281

softmax的意义:对向量进行归一化,凸显其中最大的值并抑制远低于最大值的其他分量。

image-20210713203921596

Logistic Regression 有非常大的限制。

例:

image-20210713204145151

Logistic Regression 无法分割 class 1 和 class 2,因为Logistic Regression 分界线是一条直线,无论你怎么分,都无法分割开 class1 和 class 2。

image-20210713204428924

如果你坚持要用 Logistic Regression,那就需要做一下Feature Transformation

image-20210713205119666

但是,麻烦的是我们不知道怎么做Feature Transformation。

为了做到这件事,我们需要Cascading logistic regression models (梦开始的地方

image-20210713205303259

前面这两个Logistic Regression 做到就是 Feature Transformation 这件事件,后面这个Logistic Regression 来做分类。

实际例子如下:

image-20210713210511530

我们可以调整蓝色的Logistic Regression参数,让它的output 长成右上角这个样子(左上角output值比较大 ,右下角值比较小);

调整绿色的Logistic Regression参数,让它的output 长成右下角这个样子(左上低右下高)

image-20210713211030534

有了前面这两个Logistic Regression以后,我们就可以做Feature Transformation 得到另一组Feature (上图右下角)

image-20210713212350921

我们把每个Logistic Regression 叫做“Neuron” 这些Logistic Regression串起来所组成的网络叫做 Neural Network。这个东西就是Deep Learning。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

与 或

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值