![](https://img-blog.csdnimg.cn/20190927151132530.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
深度学习算法、文章、代码实现等学习和记录。
贾金梁
智能计算,深度学习方向挣扎的小白。
展开
-
决策树中的信息增益和信息增益比的理解
1.信息熵表明样本集的不确定程度,信息熵越大,越难分类。 1)对类别y在样本集上求信息熵,表示样本集中类别y的不确定度,类别越多,信息熵越大,不确定度越高。 2)对属性A在样本集上求信息熵,表示样本集中属性A的不确定度,属性越多,信息熵越高,不确定度越高。 2.信息增益: 未划分前的样本集的信息熵H(D) – 根据某个特征划分后各个子集的信息熵的和H(D|A) 差值越大,表明该特征越具有分类能力; 存在问题:假设100个样本,某个属性有100个属性值,分布在每个样本中,如果根据该属性值划分样本集,则会原创 2020-06-22 15:18:01 · 1422 阅读 · 0 评论 -
朴素贝叶斯分类器重点
这里写自定义目录标题朴素贝叶斯分类器半朴素贝叶斯分类器 朴素贝叶斯分类器 1.全概率公式p(A) 2.贝叶斯定理p(B|A) 3.朴素贝叶斯:假设各条件特征独立同分布 p(c|x) = p(x|c)p© = p(x1|c)p(x2|c)p(x3|c)p© 主要是求p(x1|c),离散特征从样本中求得 4.特征为连续值的时候,对于朴素贝叶斯分类器: p(x1|c) = 正态分布 假设了在c类别下,特征x1符合正态分布N(均值,方差) 5.当p(x1|c)=0时,分类质量下降,采用贝叶斯估计 引入Laplace原创 2020-06-22 11:42:08 · 190 阅读 · 0 评论 -
直观理解卷积神经网络CNN
先上图: 上图是简化了的人类视觉系统: 蓝色箭头指向:右眼右视网膜可“看到”的现实区域 黑色箭头指向:右眼右视网膜 黄色箭头指向:信号被第一个神经元处理 紫色箭头指向:信号被第二个神经元处理 图中两只眼睛分别处理了4个现实区域。 为了更清晰描述,再上一张图: 在上图中,3个初级神经元都有自己的接受域,这意味着蓝色神经元只有在蓝色区域有刺激时才会被激活,黄色初级神经元只有在黄色区域有刺激时才会...原创 2019-07-26 20:41:53 · 352 阅读 · 0 评论