B站:李宏毅2020机器学习笔记 5 —— 分类Classification和逻辑回归Logistic Regression

总览学习目录篇 链接地址:https://blog.csdn.net/xczjy200888/article/details/124057616

一、分类器介绍

1. 简介

输入→函数处理→哪个类别
在这里插入图片描述

2. 理想分类器

在这里插入图片描述

3. 高斯分布
  • 输入:向量x
  • 输出:x的抽样概率
    在这里插入图片描述
  • maximum likelihood 最大似然估计
    在这里插入图片描述
  • ∑ \sum 表示协方差矩阵
    在这里插入图片描述

二、概率模型的分类

1. 三个步骤

在这里插入图片描述

2. 概率分布选择
  • 选择自己喜欢的概率分布
  • 对于二元特征,可以使用伯努利分布(即0-1分布)
    P ( x ) = p x ( 1 − p ) 1 − x = { p i f x = 1 1 − p i f x = 0 0 o t h e r w i s e P(x)=p^x(1-p)^{1-x}=\begin{cases} p & if x=1 \\ 1-p & if x=0 \\ 0 & otherwise \end{cases} P(x)=px(1p)1x= p1p0ifx=1ifx=0otherwise
  • 如果假设所有维度特征都是独立的,可以使用朴素贝叶斯分类器
    P ( A ∣ B ) = P ( A B ) P ( B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(AB)}{P(B)}=\frac{P(B|A)P(A)}{P(B)} P(AB)=P(B)P(AB)=P(B)P(BA)P(A)
    在这里插入图片描述
3. 后验概率
  • 计算过程只做了解即可
    在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

∑ 1 \sum_1 1 = ∑ 2 \sum_2 2 时,
在这里插入图片描述

三、逻辑回归

可回顾第一章的回归内容

1. 步骤一:函数模型

在这里插入图片描述

在这里插入图片描述

2. 步骤二:判断函数模型好坏

在这里插入图片描述
在这里插入图片描述
上图,把 y ^ i = 1 或者 0 代入,公式中部分项可消除 \hat{y}^i=1或者0代入,公式中部分项可消除 y^i=1或者0代入,公式中部分项可消除

在这里插入图片描述

3. 步骤三:寻找最好的函数模型

第一项的偏微分化简:
在这里插入图片描述
第二项的偏微分化简:
在这里插入图片描述
整理可得:
在这里插入图片描述

4. 逻辑回归vs线性回归
  • 输出不同:逻辑回归为0或1,线性回归为任意值
  • 损失函数不同:逻辑回归为概率交叉熵求和,线性回归为欧式距离
  • 调优方式相同
    在这里插入图片描述

四、其他思考

1. 逻辑回归+平方差

在这里插入图片描述
相较于交叉熵,使用平方差的缺点:

  • 在预测值距离目标值较远时,交叉熵值比较大,便于更新优化。
  • 在预测值距离目标值较近时,交叉熵值比较小,便于找到最优值。
  • 在预测值距离目标值不论是近或远时,平方差都较小。
2. 判别式和生成式

判别式模型 (Discriminative Model) :直接对条件概率 P ( y ∣ x ) P(y|x) P(yx)进行建模,将最大的 P ( y ∣ x ) P(y|x) P(yx)作为新样本的分类。

  • 常见判别模型有:线性回归、决策树、支持向量机SVM、k近邻、神经网络等;
  • 判别式模型更直接,目标性更强
  • 判别式模型关注的数据的差异性,寻找的是分类面

生成式模型 (Generative Model) :对每个类型建立一个模型,计算每个类别的联合分布 P ( x , y ) P(x,y) P(x,y),根据贝叶斯公式,分别计算 P ( y ∣ x ) P(y|x) P(yx),选择三类中最大的 P ( y ∣ x ) P(y|x) P(yx)作为样本的分类。

  • 常见生成式模型有:隐马尔可夫模型HMM、朴素贝叶斯模型、高斯混合模型GMM、LDA等;
  • 生成式模型关注数据是如何产生的,寻找的是数据分布模型
  • 生成式模型更普适;
  • 由生成式模型可以产生判别式模型,但是由判别式模式没法形成生成式模型
    在这里插入图片描述
3. 多类别分类器
  • 每个类别一个模型,将输入放入不同类别的模型,得到输出概率,并求每类概率的占比。
    在这里插入图片描述
  • 计算交叉熵,目标值设定(样本属于哪类,哪类为1,其余为0)
    在这里插入图片描述
4. 逻辑回归的限制

在这里插入图片描述

  • 逻辑回归无法区分class1和class2,因为逻辑回归是一种广义上的线性回归,只能在图上画一条直线,无法区分红色点和蓝色点。

  • 可以找一个转换函数,再使用逻辑回归。例如下图,分别计算属性x1的值为某个点到(0,0)的距离,属性x2为某个点到(1,1)的距离,就可以画出一条直线,进行红色点和蓝色点的区分。
    在这里插入图片描述

  • 但是要找到一个转换函数没有那么简单。所以要向,这个转换怎么让机器自己产生?
    在这里插入图片描述
    在这里插入图片描述

  • 单层或多层的特征转换就形成了神经网络。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
李宏毅2020机器学习笔记中,有一个关于注意力机制(Attention)的部分。这部分内容主要介绍了生成模型(Generation)、注意力(Attention)、生成的技巧(Tips for Generation)以及指针网络(Pointer Network)。在生成模型中,主要讲述了如何生成一个有结构的对象。接下来介绍了注意力机制,包括一些有趣的技术,比如图片生成句子等。在生成的技巧部分,提到了一些新的技术以及可能遇到的问题和偏差,并给出了相应的解决方案。最后,稍微提到了强化学习。其中还提到了在输出"machine"这个单词时,只需要关注"机器"这个部分,而不必考虑输入中的"学习"这个部分。这样可以得到更好的结果。另外,还提到了关于产生"ei"的方法,其中有研究应用了连续动态模型自注意力(Self-attention)来学习位置编码的方法。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [2020李宏毅机器学习笔记-Condition Generation by RNN&Attention](https://blog.csdn.net/zn961018/article/details/117593813)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [李宏毅机器学习学习笔记:Self-attention](https://blog.csdn.net/weixin_44455827/article/details/128094176)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

沐木金

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值