chap 3 线性模型 [西瓜书学习笔记]

chap 3 线性模型

在这里插入图片描述
在这里插入图片描述

对率函数是任意阶可导的凸函数

在这里插入图片描述
在这里插入图片描述

多分类学习

MvM:

  • ECOC, Error Correcting Output Codes
  • DAG, Directed Acyclic Gragh
    比如,在图3.5中,分类器 f 2 f_2 f2 C 1 C_1 C1类和 C 3 C_3 C3类的样例作为正例, C 4 C_4 C4 C 2 C_2 C2类作为反例。
    在这里插入图片描述

类别不平衡问题 class-imbalance

问题描述:分类任务中不同类别的训练样例数目差别很大的情况。
不失一般性,本节假定正类样例较少,反类样例较多。

在我们用 y = w T x + b y=\bm{w}^T\bm{x}+b y=wTx+b对新样本 x \bm{x} x进行分类时——是在用于测出的 y y y值与一个阈值进行比较,分类器决策规则为:
i f : y / ( 1 − y ) > 1 , t h e n 预 测 为 正 例 if : y/(1-y) >1, then 预测为正例 if:y/(1y)>1,then (3.46)
m + m^+ m+表示正例数目, m − m^- m表示反例数目,则观测几率是 m + / m − m^+/m^- m+/m,由于我们通常假设训练集是真实样本总体的无偏估计,观测几率即代表了真实几率。
i f : y / ( 1 − y ) > m + / m − , t h e n 预 测 为 正 例 if:y/(1-y)>m^+/m^-,then 预测为正例 if:y/(1y)>m+/m,then(3.48)

无偏采样:真实样本的总体类别比例在训练集中得以保持

我们的分类器是基于3.46进行决策,因此,需要对其预测值进行调整,使其在基于3.46决策时,实际是在执行3.47,因此,另
y ′ 1 − y ′ = y 1 − y × m + m − \frac{y'}{1-y'}=\frac{y}{1-y}\times\frac{m^+}{m^-} 1yy=1yy×mm+
(3.48)
解决类不平衡的基本策略:再平衡/再缩放rescaling

解决现实中没有“无偏采样”的做法:

  • 欠采样/下采样(downsampling):对训练集里的反类进行欠采样,去除一些反例后再进行学习。

代表算法:EasyEnsemble

  • 过采样/上采样(upsampling):对训练集里的正例进行过采样,增加一些正例。

不能简单对初始正例样本进行重复采样,否则会造成严重过拟合,代表性算法:SMOTE

  • 阈值移动(threshold-moving):基于原始训练集进行学习,在训练好的分类器进行预测时将(3.48)嵌入到其决策过程中.

“再缩放”也是“代价敏感学习的基础”

阅读材料

稀疏表示 sparse representation

see chap11

习题

https://blog.csdn.net/icefire_tyh/article/details/52069025

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值