机器学习(李宏毅)第四天:Classification分类概率生成模型

 

 

 

 为分类训练数据

把分类问题当作回归问题

以二进制分类为例

class1意味着target为1,class2意味着target为-1

数值接近1为class1,接近-1为class2

 回归模型会惩罚那些太正确的例子,也就是输出值远大于1的点

●多重class:class1表示target为1;class2表示target是2;class3意味着target是3…..有问题

L(f)表示f在训练数据上得到错误结果的次数。

f(x^{n})\hat{y}^{n}不等则L(f)为1,否则为0

 

 每个Pokemon用feature描述

 假设这些点是从高斯分布中采样的。 

输入:矢量X,输出:采样概率X

函数的形状由平均值μ和协方差矩阵\sum决定

 

 

假设这些点是从高斯分布中采样的

找出它们背后的高斯分布,从而找到可能的新点

 具有任意平均μ和协方差矩阵\sum的高斯函数可以生成这些点。这些点有不同的可能性

具有平均μ和协方差矩阵\sum的高斯函数的可能性=高斯样本x1,x2,x3...x79的概率

 我们假设x1,x2,x3,…,x79是由高斯函数(μ*,\sum*)产生的,具有最大可能性

故79个点从 (μ*,\sum*)中取值

 

 

 

 用相同的协方差矩阵让边界变为直线,且正确率增加

一、建立函数集模型

二、函数的好处:能获得使概率最大化的平均值μ和协方差矩阵\sum(概率是生成数据的概率)

三、很容易找到最好的函数

 对于二进制特性,你可以假设它们来自伯努利分布。

如果假设所有维度都是独立的,那么你使用的是Naive Bayes分类器

 

 

 

 

 

 

 如何直接找出w和b,就要关系到逻辑回归的知识

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值