![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习个人总结
文章平均质量分 70
NJiahe
这个作者很懒,什么都没留下…
展开
-
学习理论、模型选择、特征选择——斯坦福CS229机器学习个人总结(四)
这一份总结里的主要内容不是算法,是关于如何对偏差和方差进行权衡、如何选择模型、如何选择特征的内容,通过这些可以在实际中对问题进行更好地选择与修改模型。1、学习理论(Learning theory)1.1、偏差/方差(Bias/variance) 图一 对一个理想的模型来说,它不关心对训练集合的准确度,而是更关心对从未出现过的全新的测试集进行测试时的性能,即泛化能力(Generalization原创 2017-04-29 23:03:46 · 7125 阅读 · 1 评论 -
K-means算法、EM算法——斯坦福CS229机器学习个人总结(五)
这一份总结的主题是无监督学习的EM算法。 在前面提到的逻辑回归、SVM、朴素贝叶斯等算法,他们的训练数据都是带有标签的(预分类结果),这样的算法被称为监督学习。当训练数据没有标签,只提供特征时,称为无监督学习。 EM算法(Expectation maxmization algorithm,最大期望算法)就是一种无监督学习算法,而它的名字本身就已经包含了这个算法的特点以及做法——“期望”、“最大化原创 2017-05-03 20:29:06 · 5145 阅读 · 0 评论 -
生成模型、高斯判别分析、朴素贝叶斯——斯坦福CS229机器学习个人总结(二)
1、生成学习算法(Generative Learning Algorithm)1.1、判别模型与生成模型判别模型:训练出一个总模型,把新来的样本放到这个总模型中,直接判断这个新样本是猫还是狗。生成模型:先训练出一个猫的模型,再训练出一个狗的模型。把新来的样本放到猫的模型里,看它生成的概率是多少,再把它放到狗的模型里,看它生成的概率是多少。如果用猫的模型生成的概率比较大,就把新样本判断为猫,如果用狗的原创 2017-04-15 12:42:35 · 2949 阅读 · 0 评论 -
线性回归、logistic回归、广义线性模型——斯坦福CS229机器学习个人总结(一)
CS229第一份讲义,包括线性回归、logistic回归、广义线性模型。原创 2017-04-04 20:49:50 · 50258 阅读 · 4 评论 -
因子分析、主成分分析(PCA)、独立成分分析(ICA)——斯坦福CS229机器学习个人总结(六)
因子分析是一种数据简化技术,是一种数据的降维方法。 因子分子可以从原始高维数据中,挖掘出仍然能表现众多原始变量主要信息的低维数据。此低维数据可以通过高斯分布、线性变换、误差扰动生成原始数据。 因子分析基于一种概率模型,使用EM算法来估计参数。主成分分析(PCA)也是一种特征降维的方法。 学习理论中,特征选择是要剔除与标签无关的特征,比如“汽车的颜色”与“汽车的速度”无关; PCA中要处理与标原创 2017-05-07 15:44:36 · 40352 阅读 · 10 评论 -
支持向量机(SVM)——斯坦福CS229机器学习个人总结(三)
鉴于我刚开始学习支持向量机(Support vector machines,简称SVM)时的一脸懵逼,我认为有必要先给出一些SVM的定义。下面是一个最简单的SVM: 图一分类算法:支持向量机(SVM)是一个分类算法(机器学习中经常把算法称为一个“机器”),它的目标是找到图中实线所表示的决策边界,也称为超平面(Hyperplane)支持向量(Support vectors):支持向原创 2017-04-24 23:05:45 · 7342 阅读 · 7 评论