什么是分类(classification)?什么是回归(regression)?

什么是分类(classification)?什么是回归(regression)?

分类

分类是指有有限个可能的问题,预测的是一个离散的、明确的变量。比如给出一张图片,去判断是T恤是裤子或者其他的种类;这个类别是有限的。目标检测算法中,RCNN系列就是用了分类问题的思想,先是找出一定量的region proposal(候选区域),然后再对这些个候选区域进行分类任务。

回归

相反,回归是指有无限个可能的问题,预测的是一个连续的、逼近的变量。比如房价的预测、明日气温的预测。同样,目标检测算法中,yolo系列则是用来回归的思想,没有提取候选区域这一步,直接划分为一些cell,然后产出bbox,回归出这些bbox的位置和置信度。

  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CART(Classification And Regression Trees)决策树是一种常用的机器学习算法,它可以用于分类回归预测。在回归预测中,CART决策树的主要思路是将数据集分成两个或多个子集,使得每个子集内的数据尽可能相似,而不同子集之间的数据差异尽可能大。在构建决策树的过程中,CART算法会选择一个最优的分裂点,将数据集分成两个子集,然后递归地对每个子集进行进一步的分裂,直到达到停止条件为止。 具体来说,CART决策树在回归预测中的实现流程如下: 1. 选择最优特征 CART算法首先会从所有的特征中选择一个最优的特征,作为当前节点的分裂特征。在回归预测中,通常使用平方误差最小化作为判断分裂特征的标准。 2. 划分数据集 根据选定的分裂特征,将数据集分成两个子集。对于数值型特征,可以选择一个阈值将数据集划分成两个子集;对于离散型特征,可以将每个取值单独作为一个子集。 3. 计算子集的平均值 对于每个子集,计算其中所有样本的目标变量的平均值,作为该子集的预测值。 4. 计算平方误差 分别计算划分前和划分后的平方误差,平方误差可以用来衡量模型的拟合程度。 5. 选择最优分裂点 CART算法会不断尝试不同的分裂特征和阈值,选择一个最优的分裂点,使得分裂后的平方误差最小化。 6. 递归构建决策树 根据选定的最优分裂点,将数据集分成两个子集,然后分别递归地对每个子集进行进一步的分裂,直到达到停止条件为止。停止条件可以是树的深度达到一定值、子集中样本数量达到一定值等。 7. 预测新样本 根据构建好的决策树,可以对新样本进行预测。对于回归预测,预测值就是从根节点开始,按照特征的取值不断向下遍历,直到叶子节点,返回该叶子节点的预测值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值