机器学习
冉茂松
这个作者很懒,什么都没留下…
展开
-
逻辑(斯谛)回归(Logistic Regression)
GitHub简书CSDN在我们学习机器学习的过程中,我们所需解决的问题,大致可以分为两部分:分类和回归.其中,分类是指模型用来预测一个有限的离散值集合中的一个,比如猫狗分类,肿瘤的恶性或良性; 回归是指模型的输出是一个连续变量,比如预测房价、身高等.本篇内容讲解的是机器学习中经典的逻辑(斯谛)回归(Logistic Regression),从名字上看,大家误以为该方法是一种回归方法,其实不然...原创 2019-03-20 14:19:32 · 930 阅读 · 0 评论 -
最大熵模型
1. 最大熵原理最大熵模型(Maximum Entropy Model)是通过最大熵原理推导实现,那什么是最大熵原理?熵是随机变量不确定性大的度量,不确定性越大,熵值越大;若随机变量变为定值,即某个值发生的概率为1,而其它事件都为0, 此时熵值为0,均匀分布是熵值最大的分布,也即“最不确定的分布”。假设离散随机变量 XXX 的概率分布是 P(X)P(X)P(X),则其熵为:(1)H(P)=...原创 2019-03-26 22:03:41 · 277 阅读 · 0 评论 -
支持向量机——线性可分支持向量机
GitHub简书CSDN1 线性可分支持向量机支持向量机(Support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,他的学习策略就是间隔最大化,同时该方法可以形式化为一个求解图二次规划。支持向量机可分为三类:线性可分支持向量机、硬间隔(hard-margin svm)线性支持向量机、软间隔(soft-margi...原创 2019-03-27 15:05:44 · 4369 阅读 · 0 评论 -
机器学习中的熵、条件熵、相对熵(KL散度)和交叉熵
该文章转载自详解机器学习中的熵、条件熵、相对熵和交叉熵文章目录1、信息熵 (information entropy)2、条件熵 (Conditional entropy)3、相对熵 (Relative entropy),也称KL散度 (Kullback–Leibler divergence)4、交叉熵 (Cross entropy)5、总结6、参考1、信息熵 (information entr...转载 2019-04-26 12:31:54 · 2388 阅读 · 0 评论 -
GBDT算法原理以及实例理解
该内容完全转载自同名CSDN博客(http://blog.csdn.net/zpalyq110/article/details/79527653)文章目录1. Decision Tree:CART回归树2. Gradient Boosting:拟合负梯度3. GBDT算法原理4. 实例详解写在前面: 去年学习GBDT之初,为了加强对算法的理解,整理了一篇笔记形式的文章,发出去之后发现阅读量越来...转载 2019-04-27 15:21:53 · 2040 阅读 · 0 评论 -
决策树
决策树决策树(Decision Tree)是一种用于分类的机器学习算法,他根据表示示例(example)的属性,对属性进行选择并作出判断,将训练数据根据这个属性测试的结果被划分到子节点中。生成决策树的过程是一个递归生成的过程,遵循简单而直观的“分而治之”策略,基本算法如下: 输入:训练集D={(x1,y1),(x2,y2),⋯,(xm,ym)};属性集A={a1,a2,⋯,ad}\begin{s原创 2017-07-29 18:11:02 · 364 阅读 · 0 评论