1. 西瓜书《机器学习》课后答案——chapter11_11.1 Relief特征选择算法
2. 试写出Relief-F的算法描述。
解答:
输入:数据集D
过程:
计算每个类别的比例;
所有特征对应的统计量 δj=0 ;
for i=1:m
得到 xi 最近的同类样本 xi,nh ,以及其余类别中的每一个类别的最近样本 xi,l,nm
for j=1:d
δj = δj−diff(xji,xji,nh)2+∑l≠yipldiff(xji,xji,l,nm)2
输出:
所有特征对应的统计量 δ
3. Relief算法是分别考察每个属性的重要性。设计一个能考虑每一对属性重要性的改进算法。
解答:
输入:数据集D
过程:
所有两两特征组合对应的统计量 δjk=0 ;
for i=1:m
得到 xi 最近的同类样本 xi,nh ,不同类别中的最近样本 xi,nm
for j=1:d
for k=1:d
δjk = δjk−diff((xji,xki),(xji,nh,xki,nh))2+diff((xji,xki),(xji,nm,xki,nm))2
输出:
所有两两特征对应的统计量矩阵 δ
主要改变在于特征对的统计量的计算,在计算diff()函数上,此时可以把它的输入看做两个向量,计算其欧氏距离来体现样本和其邻居之间在特征对上的距离。
4. 试为LVW设计一个改进算法,即便有运行时间限制,该算法也一定能给出解。
解:
给出一个总的迭代次数约束,当总迭代次数达到约束值时,立即终止算法。
5. 结合图11.2,举例说明 L1 正则化在何种情形下不能产生稀疏解。
解答:
对照图11.2,图中的抛物线和 L0 等值线相交在坐标轴上,除了这条等值线之外,这条抛物线只和这条等值线外面的等值线相交,所以导致在这条抛物线上,坐标轴上的交点上的代价值最小。
如果抛物线和这条等值线里面的等值线相交,那么这条抛物线上代价最小的点就不是坐标轴上的这点了。此时不产生稀疏解。
6. 试析岭回归与支持向量机的联系。
解答:
第130页的(6.35)是支持向量机的优化问题,优化目标是最小化合页损失以及w的 L2 范数平方;而岭回归的优化目标(11.6)是最小化误差平方和以及w的 L2 范数平方。
7. 试述直接求解 L0 范数正则化会遇到的困难。
解答:
||x||0=|{
i|xi≠0}| ,向量 x 的
如果以 L0 作为正则化项,那么很自然地,就是希望w中的非零元素个数最少,即0元素最多。
但是在书中第252页中的边注中提到, L0 范数不连续,导致难以求解优化问题。
8. 给出求解 L1 范数最小化问题中的闭式解(11.14)的详细推导过程。
解答: