机器学习
legendayue
这个作者很懒,什么都没留下…
展开
-
第一章:线性模型
线性回归f(x)=wx+b有监督学习根据已知的数据集T来计算参数w和b(极大似然法)cost function:注意要特征归一化好处:(1)提升模型收敛速度(2)提升模型精度逻辑回归:(分类)对数概率函数:1/(1+exp(-z)) z=wx+b线性判别分析:(Linear Discriminant Analysis,LDA)LDA是一种监督学习的降维技术,也就是说它的数据集...原创 2019-07-13 11:39:12 · 220 阅读 · 0 评论 -
第二章:决策树(decision tree)
决策树是一种有监督的分类和预测方法,以树状图为基础。就是一系列的if-then语句。既可以用于分类问题也可以用于回归问题。损失函数最小化原则决策树原理:在特征空间上执行递归的二元分割,由节点和有向边组成。根节点是所有样本的集合。内部节点表示一个特征或者属性(比如天气,体重等等),叶子节点表示一个分类(看电影,去运动等)。在叶子节点Si处有Ni个样本点,但是整个单元都属于Ck类,看那个分类占优...原创 2019-07-13 21:38:38 · 883 阅读 · 0 评论 -
第三章:贝叶斯分类器
贝叶斯分类是一种分类算法的总称,以贝叶斯定理为基础,故称为贝叶斯分类。分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。原创 2019-07-15 12:15:41 · 587 阅读 · 0 评论 -
第四章:K近邻法(K-Nearst Neighbor,KNN)
K近邻法(K-Nearst Neighbor,KNN),它的输入为实例的特征向量,通过计算新数据与训练数据特征值之间的距离,然后选取K(K>=1)个距离最近的邻居进行分类判断。对于分类问题,输出为实例的类别。分类时,对于新的数据,根据K各最近邻的训练实例的类别,通过多数表决方式预测新数据的类别。对于回归问题,取其K个最近邻的训练实例的平均值为预测值。KNN三要素KNN三要素:K值选择...原创 2019-07-15 21:00:01 · 1073 阅读 · 0 评论 -
贝叶斯估计和极大似然估计
https://blog.csdn.net/feilong_csdn/article/details/61633180在开始接触最大似然估计和贝叶斯估计时,大家都会有个疑问:最大似然估计和贝叶斯估计二者很相似,到底有何区别?本文便来说说二者的不同之处以及求参模型的公式推导!预热知识必知如何求类条件概率密度:我们知道贝叶斯决策中关键便在于知道后验概率,那么问题便集中在求解类条件概率密度!那么...转载 2019-07-26 16:27:30 · 314 阅读 · 0 评论