机器学习算法
yinxingtianxia
这个作者很懒,什么都没留下…
展开
-
决策树介绍
1. 前言:最近学习的时候用到了决策树相关的知识,整理了一下相关的资料,备查。2. 算法原理:决策树(Decision Tree)是一种简单但是广泛使用的分类器。通过训练数据构建决策树,可以高效的对未知的数据进行分类。决策数有两大优点: 1)决策树模型可 读性好,具有描述性,有助于人工分析;2)效率高,决策树只需要一次构建,反复使用,每一次预测的最大计原创 2016-11-07 12:44:56 · 781 阅读 · 0 评论 -
随机森林(Random Forest)
前言:因为有接触过随机森林的基础知识,学习机器学习的时候也遇到过,最近又深入学习一次,以此mark一下。一. 什么事随机森林? 作为新兴起的、高度灵活的一种机器学习算法,随机森林(Random Forest,简称RF)拥有广泛的应用前景,从市场营销到医疗保健保险,既可以用来做市场营销模拟的建模,统计客户来源,保留和流失,也可用来预测疾病的风险和病患者的易感性。最初,我是在师兄组会原创 2016-11-02 10:52:41 · 3683 阅读 · 0 评论 -
Monte Carlo采样
http://www.cnblogs.com/qingsunny/archive/2013/03/17/2964794.htmlhttp://blog.csdn.net/majestyhao/article/details/10196629原创 2016-12-05 14:33:10 · 637 阅读 · 0 评论 -
几个重要的概率分布及其特性
转自:http://blog.csdn.net/u014313009/article/details/508496941. 二值变量的概率分布 假设一个二元随机变量,用参数表示的概率为:。(1)伯努利分布(Bernoulli distribution) 概率分布函数: 期望: 方差:转载 2016-12-05 15:06:38 · 12689 阅读 · 0 评论 -
KL距离-Kullback-Leibler Divergence
KL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy)。它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)编码时,平均每个基本事件(符号)编码长度增加了多少比特。我们用D(P||Q)表示KL距离,计算公式如下:原创 2016-12-05 15:29:00 · 643 阅读 · 0 评论 -
Tensorflow中训练得到Nan错误的分析
之前在TensorFlow中实现不同的神经网络,作为新手,发现经常会出现计算的loss中,出现Nan值的情况,总的来说,TensorFlow中出现Nan值的情况有两种,一种是在loss中计算后得到了Nan值,另一种是在更新网络权重等等数据的时候出现了Nan值,本文接下来,首先解决计算loss中得到Nan值的问题,随后介绍更新网络时,出现Nan值的情况。Loss计算中出现Nan值在搜原创 2017-09-28 10:52:38 · 6488 阅读 · 6 评论