logistic regression

binary classification 能将给定的样本进行分类,可是在一些场景下,我们在意的是给定样本,这个样本被断定为一个类别的概率!如果我们有了给定样本被分类为给定类别的概率分布估计,我们就能拿这个估计得来的概率分布做二元分类。所以,这个我们也称这样的问题为soft binary classification。
在这里插入图片描述
一、收集训练集
soft binary classification 的目标在于给定样本输出其产生不同类别的概率值。可是在实际中,搜集数据的时候,我们只能拿到样本的类别,而不知其概率。这个时候不妨想,我们所取得的结果是在其概率分布中进行的一次抽样,利用抽样结果我们来估计其生成某一类别的概率。(或是可以理解为根据抽样结果生成的0、1是实际概率分布的Noise版本)
根据分类结果,粗略的估计出label。

在这里插入图片描述
二、设定hypothesis set(尽可能地接近我们的target function)
通用思路,得到特征后计算加权和,记为score。score 越大,越有可能出现某一个类。但我们的目标是输出0-1之间的数值,因此需要对score进行转化,logistic 函数便能达成我们的心愿。于是一个满足要求的hypothesis set 便出现了。(linear +logistic ),我们称其为logistic regression。
在这里插入图片描述在这里插入图片描述

三、定义损失函数(损失函数是我们的优化目标,损失函数决定学习算法)
不同的问题对应的机器学习模型各不相同,我们已经学习了linear regression、binary classification模型,这些模型中所选择的损失函数又各不相同(Ein的表达各不相同),而损失函数的选定又决定了我们的学习算法。那么我们新给出的logistic regression 所对应的损失函数是什么呢?
不管选择怎么样的损失函数,Error measure的标准总是不会变的:pick的hypothesis要最大程度地接近target function。
对于binary classification 问

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值