西瓜书《机器学习》课后答案——chapter11

本文详细解答了西瓜书《机器学习》第11章的课后习题,涵盖了Relief特征选择算法、Relief-F的算法描述、改进的特征重要性评估以及L1正则化、岭回归与支持向量机的关系、L0范数正则化的挑战、L1范数最小化的闭式解推导、字典学习与压缩感知的异同以及分组稀疏性在字典学习中的应用。通过这些解析,深入理解特征选择和正则化在机器学习中的作用和应用。
摘要由CSDN通过智能技术生成

1. 西瓜书《机器学习》课后答案——chapter11_11.1 Relief特征选择算法

2. 试写出Relief-F的算法描述。
解答:


输入:数据集D
过程
计算每个类别的比例;
所有特征对应的统计量 δj=0
for i=1:m
得到 xi 最近的同类样本 xi,nh ,以及其余类别中的每一个类别的最近样本 xi,l,nm
for j=1:d
δj = δjdiff(xji,xji,nh)2+lyipldiff(xji,xji,l,nm)2
输出
所有特征对应的统计量 δ


3. Relief算法是分别考察每个属性的重要性。设计一个能考虑每一对属性重要性的改进算法。
解答:


输入:数据集D
过程
所有两两特征组合对应的统计量 δjk=0
for i=1:m
得到 xi 最近的同类样本 xi,nh ,不同类别中的最近样本 xi,nm
for j=1:d
for k=1:d
δjk = δjkdiff((xji,xki),(xji,nh,xki,nh))2+diff((xji,xki),(xji,nm,xki,nm))2
输出
所有两两特征对应的统计量矩阵 δ


主要改变在于特征对的统计量的计算,在计算diff()函数上,此时可以把它的输入看做两个向量,计算其欧氏距离来体现样本和其邻居之间在特征对上的距离。

4. 试为LVW设计一个改进算法,即便有运行时间限制,该算法也一定能给出解。
解:
给出一个总的迭代次数约束,当总迭代次数达到约束值时,立即终止算法。

5. 结合图11.2,举例说明 L1 正则化在何种情形下不能产生稀疏解。
解答:
对照图11.2,图中的抛物线和 L0 等值线相交在坐标轴上,除了这条等值线之外,这条抛物线只和这条等值线外面的等值线相交,所以导致在这条抛物线上,坐标轴上的交点上的代价值最小。
如果抛物线和这条等值线里面的等值线相交,那么这条抛物线上代价最小的点就不是坐标轴上的这点了。此时不产生稀疏解。

6. 试析岭回归与支持向量机的联系。
解答:
第130页的(6.35)是支持向量机的优化问题,优化目标是最小化合页损失以及w的 L2 范数平方;而岭回归的优化目标(11.6)是最小化误差平方和以及w的 L2 范数平方。

7. 试述直接求解 L0 范数正则化会遇到的困难。
解答:
||x||0=|{ i|xi0}| ,向量 x L0 范数是非零元素的个数。

如果以 L0 作为正则化项,那么很自然地,就是希望w中的非零元素个数最少,即0元素最多。

但是在书中第252页中的边注中提到, L0 范数不连续,导致难以求解优化问题。

8. 给出求解 L1 范数最小化问题中的闭式解(11.14)的详细推导过程。
解答:

xk+1=argminxL2||xz||22+λ||x||1.(11.13)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值