1. 当你的特征数量p过多,甚至多过数据量N的时候,降维是必须的。
为什么是必须的?有个东西叫curse of dimensionality,维度越高,你的数据在每个特征维度上的分布就越稀疏,这对机器学习算法基本都是灾难性的。
你说特征数量过多,砍一点就行了嘛?但是对不起,就有这样的问题存在,砍不了。
你要研究某个罕见病跟什么基因有关?基因很多哦,人类已知的基因有几千个,可是病例通常也就几百个,有时连几百个都没有……
你说特征数量过多,砍一点就行了嘛?但是对不起,就有这样的问题存在,砍不了。
你要研究某个罕见病跟什么基因有关?基因很多哦,人类已知的基因有几千个,可是病例通常也就几百个,有时连几百个都没有……
2. 特征有比较明显的自相关的时候,也可以考虑降维。
自相关会让很多模型的效果变差,主要是线性模型。这些模型效果不好,但是算的快,很多时候很有用。先降维再算会好的多。
自相关会让很多模型的效果变差,主要是线性模型。这些模型效果不好,但是算的快,很多时候很有用。先降维再算会好的多。