![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 95
也治平
这个作者很懒,什么都没留下…
展开
-
《机器学习》第11章——特征选择与稀疏学习
将样本属性称为“特征”(feature)。相关特征:对当前学习任务有关的属性无关特征:对当前学习任务无关的属性冗余特征:所包含的信息能从其他特征中推演出来。很多时候冗余特征是不起作用的,去除它们会减轻学习过程的负担。但如果冗余特征恰好完成了学习任务所需的中间概念,则冗余特征是有益的从给定的特征集合中选择出相关特征子集,是一种数据预处理为普通稠密表达的样本找到合适的字典,将样本转化为合适的稀疏表示形式(稀疏编码),从而简化学习任务,降低模型复杂度。给定数据集x1x2xmx1x。原创 2023-12-08 19:38:51 · 290 阅读 · 0 评论 -
《机器学习》第10章——降维与度量学习
西瓜书降维与度量学习原创 2023-12-07 18:39:19 · 220 阅读 · 0 评论 -
《机器学习》第9章——聚类
将相似的对象归入同一个“类”。“物以类聚,人以群分。发现数据的结构,使得同一个类中的对象互相之间关联更强。同一个类中的对象相似(similarity)不同类中的对象有明显的差异相似度的度量(这就牵扯到相似度的定义)簇/类内(intra-cluster)相似度(相似性要尽可能大)簇/类间(inter-cluster)相似度(相似性要尽可能小,或者是差异性要尽可能大)原创 2023-12-05 16:20:56 · 170 阅读 · 0 评论 -
《机器学习》第8章——集成学习
集成学习(ensemble learning)通过构建并结合多个学习器来完成学习任务。Boosting是一族可将弱学习器提升为强学习器的算法.这族算法的工作机制类似:先从初始训练集训练出一个基学习器,再根据基学器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多关注,然后基于调整后的样本分布来训练下一个基学习器;如此重复进行,直至基学习器数目达到事先指定的值T,最终将这T个基学习器进行加权结合.原创 2023-11-28 20:49:47 · 115 阅读 · 1 评论