【22-23 春学期】AI作业2-监督学习

本文介绍了机器学习中的基本概念,包括结构风险最小化的优化策略,正则化防止过拟合,线性回归和逻辑斯蒂回归的统计分析方法,以及Sigmoid和SoftMax在多分类问题中的应用。此外,还涵盖了决策树的判断逻辑,信息熵、条件熵和信息增益在数据不确定性评估中的作用,线性判别分析(LDA)的降维技术,以及PAC学习理论和AdaBoost算法的迭代增强思想。
摘要由CSDN通过智能技术生成

1.结构风险最小化:

把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折衷考虑经验风险和置信范围,取得实际风险的最小。这种思想称作结构风险最小化。

2.正则化

正则化是一种为了减小测试误差的行为(有时候会增加训练误差)。约束要优化的参数,给损失函数加上一些限制去规范它们在接下来的循环迭代中不要自我膨胀。

3.线性回归

线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w'x+ee为误差服从均值为0的正态分布。

4.逻辑斯蒂回归

是对数线性模型,根据现有的数据对分类边界线建立回归公式,以此进行分类。

5. Sigmoid SoftMax 函数

Sigmoid函数:Sigmoid =多标签分类问题=多个正确答案=非独占输出。构建分类器,解决有多个正确答案的问题时,用Sigmoid函数分别处理各个原始输出值。Sigmoid函数是一种logistic函数,它将任意的值转换到 [0,1] 之间

Softmax函数:Softmax =多类别分类问题=只有一个正确答案=互斥输出(例如手写数字,鸢尾花)。构建分类器,解决只有唯一正确答案的问题时,用Softmax函数处理各个原始输出值。Softmax函数的分母综合了原始输出值的所有因素,这意味着,Softmax函数得到的不同概率之间相互关联。

Softmax函数,又称归一化指数函数,函数表达式为

 

6.决策树

决策树是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果。

7. 信息熵 条件熵 信息增益

信息熵:表示的是随机变量不确定度的衡量

条件熵:表示在已知随机变量X的条件下,Y的不确定度

信息增益:表示数据集中某个特征X的信息使类Y的信息的不确定性减少的程度,即特征X让类Y不确定度降低。

8. 线性判别分析 LDA

一种监督学习的降维技术,LDA数据集的每个样本都有类别输出。

将数据投影在低维度上,并且投影后同种类别数据的投影点尽可能的接近,不同类别数据的投影点的中心点尽可能的远

9. 概率近似正确 PAC

可能,近似正确。Pac学习是机器学习的数学分析框架,在这个框架中,学习者接收样本,从某种可能的函数中选择一个泛化函数(假设),目标是在较高概率下,所选函数具有较低的泛化误差。

10.自适应提升AdaBoost

一种迭代算法,针对同一个训练集训练不同的分类器,然后把这些弱分类相集合起来构成一个更强的最终分类器(强分类器)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值