![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习原理
文章平均质量分 82
ma416539432
这个作者很懒,什么都没留下…
展开
-
机器学习之降维方法总结
降维方法分为线性降维方法和非线性降维方法,看下表: 本文结构如下:线性降维方法 主成分分析法 线性判别法 奇异值分解法因子分析法 非线性降维方法~~流形学习简介说到维度,其目的是用来进行特征选择和特征提取,注意特征选择和特征提取这二者的不同之处: 特征选择:选择重要特征子集,删除其余特征。 特征提取:由原始特征形成较少的新特征。 在特征提取中,我们要找到k个新的维度的集合,这原创 2021-11-01 16:55:26 · 61365 阅读 · 2 评论 -
ML机器学习基于树的家族
ML机器学习基于树的家族目录决策树模型与学习 特征选择 决策树的生成 决策树的剪枝 DBGT随机森林 – 1)决策树模型与学习 我们来谈一谈机器学习算法中的各种树形算法,包括ID3、C4.5、CART以及基于集成思想的树模型Random Forest和GBDT。本文对各类树形算法的基本思想进行了简单的介绍,重点谈一谈被称为是算法中的“战斗机”,机器学习中的“屠龙刀”的GBDT算法。原创 2021-11-01 16:54:02 · 901 阅读 · 0 评论 -
随机森林—bagging算法的代表作
随机森林 对于随机森林的理解看这篇博文 另外周志华《机器学习》8.3节对bagging和随机森林进行了比较好的总结。随机森林关键点: bagging方法,用重复采样的方式产生n个不同的样本集合,然后基于基分类器并行训练出n个模型,为了是降低模型的方差。 在bagging基础上,随机森林用决策树(不剪枝)做基分类器,对决策树的特征进行随机的采样,进一步的提高了模型抗过拟合能力。 随基分类器个原创 2021-11-01 16:54:29 · 1904 阅读 · 0 评论 -
在keras 上实践,通过keras例子来理解lastm循环神经网络
本文是对这篇博文的翻译和实践: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/阅读本文章以后,你将要知道:一)怎么在keras上实习一个普通的lstm循环神经网络。 二)在lstm中怎样小心的利用好时间状态特征 三)怎样在lstm上实现状态翻译 2021-11-01 16:55:40 · 28705 阅读 · 10 评论