【台大李宏毅ML课程】Lecture 4 Classification笔记

Lecture 4 Classification

本讲主要讲述了基于概率模型的分类器

分类的应用场景就很多了,如信用卡评分、疾病诊断、模式识别等等等等。

1.为什么不用回归而用分类
因为那些离回归函数比较远但却是正确的点会带了很大的error

2.初步的想法
对于一个二分类问题,采用如下方式:
这里写图片描述
哪个类别的P(C|x)大就判为哪一类;
其中P(C1)和P(C2)可以根据训练集中类别的个数来估算(只是估算,并不是准确的值),算一下训练数据里两类各占多少即可;
P(x|C1)和P(x|C2)需要做一些假设,比如假设是高斯分布什么的……

3.高斯分布的假设
假设P(x|C1)和P(x|C2)分别服从不同均值不同方差的高斯分布,利用样本,可根据极大似然估计的原理来估计均值和方差:
这里写图片描述
每个样本有n特征,均值就是n维的,方差是n*n维的
下图以宝可梦为例,选取了两个类别:water、Normal。每个样本有两个特征:SP、Defense。
这里写图片描述
于是估计完均值和方差之后,就可以把高斯分布代入原来的贝叶斯公式了:
这里写图片描述
但效果似乎不太好,把特征数增加到7个效果不佳。
这里写图片描述
这里有个问题,随着特征数的增加,方差矩阵维数越来越高,对于每一个类别都要算一个方差矩阵,计算量也会很大。

4.共用方差矩阵
这里写图片描述

分类面也由曲面变成了超平面(这个之后会解释),精确率也得到了提升,说明共用方差矩阵这种改进还是有效的!
这里写图片描述

7.使用其它的分布、贝叶斯分布
上述假设P(x|C1)和P(x|C2)服从高斯分布,但实际上还可以假设服从别的分布,比如每个样本x只有两个特征(binary features),则可以假设P(x|C1)和P(x|C2)服从伯努利分布(Bernouli distribution)

如果假设每个特征的是相互独立的,即
这里写图片描述
则上述分类器被称为

贝叶斯分类器(bayes classifier)

8.超平面
课程了最后从数学的角度解释了当共用方差时,分类曲面变成了平面。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
李宏毅ML2021春季课程的第三个作业是一个关于自然语言处理任务的实践项目。这个作业涵盖了文本分类、情感分析和命名实体识别等主题。 学生们的任务是使用提供的数据集,通过实现机器学习算法,对文本进行分类和情感分析。对于命名实体识别,学生们需要利用已有的工具和技术来提取文本中的实体,例如人名、地名、组织名等。 在这个作业中,学生们需要掌握一些基本的自然语言处理技术和算法。他们需要了解常用的特征提取方法,例如词袋模型和TF-IDF。此外,学生们还需要学习基本的分类算法,如朴素贝叶斯和支持向量机。在情感分析任务中,学生们需要了解情感词典和情感分析的基本原理。 此外,学生们还需要使用Python编程语言和相关的自然语言处理工具库,如NLTK和SpaCy。通过实践项目,学生们将获得与自然语言处理相关的实际经验,并加深对机器学习模型和算法的理解。 完成这个作业需要一定的时间和努力。学生们需要仔细阅读作业要求和相关文档,并按照要求完成代码实现和实验报告。他们还需要参考课程讲义和推荐的学习资源,以加深对自然语言处理领域的理解。 总的来说,李宏毅ML2021春季课程的HW3是一个涉及自然语言处理任务的实践作业。通过完成这个作业,学生们将掌握基本的自然语言处理技术和算法,并获得与自然语言处理相关的实际经验。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值