统计学习笔记(一)

统计学习符号

X:输入空间/特征空间
Y:输出空间
X:输入变量
Y:输出变量
x:输入变量的值
y:输出变量的值
xi=(x(1),x(2),...,x(n)) :第i个输入实例x的特征向量,n是特征的个数
T= {(x1,y1),(x2,y2),...(xN,yN)} :训练集
P:概率
F:假设空间
fF :包含于假设空间F的模型f
w=(w1,w2,...,wn) :权向量

统计学习

统计学习包括监督学习、非监督学习、半监督学习和强化学习。
监督学习是学习一个模型,使得该模型对任意给定的输入能很好的预测输出。

监督学习

输入空间、特征空间和输出空间

输入空间(X):输入的所有可能的取值的空间。
输出空间(Y):输出的所有可能的取值的空间。
特征空间(X):每个输入由若干个特征表示,他们合起来叫做特征向量。特征向量组成的空间叫特征空间。特征空间在某些时候就是输入空间。
训练集(T):监督学习从训练数据集中学习模型,对测试数据进行预测。训练数据又输入数据和输出数据构成。
样本/样本点:训练集中的输入与输出对。
回归问题、分类问题和标注问题:输入变量与输出变量既可以是连续的也可以是离散的。输入和输出变量都是连续的预测问题成为回归问题;输出为有限个离散数据的预测问题称为分类问题;输入与输出都是离散的预测称为标注问题。(我想画3幅图说明,留着位置啊。)

联合概率分布

随机变量 X Y遵循联合概率分布 P(X,Y) 。这个是统计学习中的一个基础假设。

假设空间

输入到输出的映射是一个模型。输入空间到输出空间的所有映射/模型组成了一个空间,这个空间称为假设空间。假设空间包含所有的模型。监督学习的作用是在假设空间中搜索到最优的模型。

1.3 统计学习三要素

统计学习三要素:模型 策略 算法

1.3.1 模型

在监督学习过程中,模型就是所要学习的条件概率分布或决策函数。模型的假设空间包含所有的可能的条件概率分布或决策函数。假设空间中的模型一般有无穷多个。
假设空间用符号 F 表示。决策函数的集合

F={f|Y=f(X)}  F={f|Y=fθ(X),θRn}
式中 θ 是属于n维欧氏空间 Rn ,称为参数空间。
假设空间也可以定义为条件概率的集合
F={f|P(Y|X)}  F={f|Pθ(Y|X),θRn}
其中,X和Y分别是输入空间和输出空间的上的随机变量, θ 是属于n维欧氏空间 Rn

1.3.2 策略

  1. 损失函数
    0-1损失函数:
    L(Y,f(X))={1,0,Yf(X)Y=f(X)

    平方损失函数:
    L(Y,f(X))=(Yf(X))2

    绝对值损失函数:
    L(Y,f(X))=|Yf(X)|

    对数损失函数:
    L(Y,f(X))=logP(Y|X)

    损失函数值越小,模型越好。损失函数的期望是
    Rexp(f)=Ep[L(Y,f(X)]=X×YL(y,f(x))P(x,y)dxdy
  2. 风险函数

1.3.3 算法

模型评估与模型选择

训练误差与测试误差

对于模型 Y=f(X) ,训练误差是模型关于训练数据集的平均损失。由于训练数据是已知的,所以模型的训练误差可以求出。
对于模型 Y=f(X) ,测试误差是模型关于测试数据集的平均损失。模型的测试误差可以基于给出的测试数据集求出。
二者的公式:

Remp(f)=1Ni=1NL(yi,f(xi))

etest(f)=1Ni=1NL(yi,f(xi))

注:其中L是损失的意思,损失函数。常用的损失函数是损失的平方的1/2。

只要了解二者的关系就行了。随着模型的复杂度增加,训练误差逐渐减小趋近于0,测试误差先减小后增加。

过拟合与模型选择

这里写图片描述

正则化与交叉验证

泛化能力

泛化误差

泛化误差上界

生成模型与判别模型

理解了以后再写

分类问题

标注问题

回归问题

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值