![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习算法
leichangqing
这个作者很懒,什么都没留下…
展开
-
隐马尔科夫模型(Hidden Markov Model,HMM)
隐马尔科夫模型(Hidden Markov Model,HMM) <div class="tags-box space"> <span class="label">所属专栏:&转载 2019-03-15 18:04:36 · 4103 阅读 · 0 评论 -
周志华西瓜书六 神经网络二
如果你喜欢本文的话,不妨点赞、分享或者关注公共号「数据搬瓦工」,上面会同步更新文章。如何有错误之处,还望大家指点,我将及时修改。本文重点讲解神经网络的「反向传播算法(BP)」首先定义一些变量:L = 神经网络的层次数 = 第 l 层包含的单元数(不包括偏置单元)K = 输出层的单元数m = 样本数代价函数代价函数 J(θ) 度量的就是这个神经网络对...转载 2019-04-08 08:31:50 · 393 阅读 · 0 评论 -
周志华西瓜书五 神经网络一
如果你喜欢本文的话,不妨点赞、分享或者关注公共号「数据搬瓦工」,上面会同步更新文章。神经网络当我们有一个包含许多特征的复杂假设时,神经网络则是一种解决复杂假设问题的模型。神经元神经元是神经网络中最基本的单位。神经元是一个计算单元,神经元接收到来自其他神经元传递过来的输入信号,这些输入信号通过带权重的连接进行传递,然后通过激活函数的计算以产生神经元的输出。...转载 2019-04-08 08:30:47 · 659 阅读 · 0 评论 -
周志华机器学习四 过拟合与正则化
上图表示了拟合数据三种情况:欠拟合(左 2 图)、较好的拟合(左 3 图)、过拟合(左 4 图)欠拟合(Underfitting):模型没有很好地捕捉到数据特征,不能够很好地拟合数据。其产生原因通常是假设函数过于简单或者使用的特征不够。其中增加特征项是欠拟合的一种解决方案。过拟合(Overfitting):由于假设函数过度拟合训练集数据而失去了泛化能力,导致对新的数据预测不好...转载 2019-04-08 08:29:36 · 425 阅读 · 0 评论 -
周志华西瓜书笔记一 机器学习介绍
前言我是一个机器学习的入门者。看了很多前辈大神的推荐,从西瓜书(周志华老师《机器学习》)或者 Coursera 吴恩达机器学习视频入门比较好。我比较喜欢书籍,因为做起笔记比较方便。有输入同时有输出才能让学习效率更加好,所以边读边做笔记。下面我将按照西瓜书的章节来,如果有不对的地方,还望指导学习。正文首先,通过思维导图来描述一下西瓜书第一章的知识内容与结构。...转载 2019-04-08 08:25:05 · 1223 阅读 · 0 评论 -
机器学习中的数学——EM算法与高斯混合模型(GMM)
前言:期望极大(Expectation Maximization)算法,也称EM算法,是一种迭代算法,由Dempster et. al 在1977年提出,用于含有隐变量的概率参数模型的极大似然估计,或极大后验概率估计。EM算法作为一种数据添加算法,在近几十年得到迅速的发展,主要源于当前科学研究以及各方面实际应用中数据量越来越大的情况下,经常存在数据缺失或者不可用的...转载 2019-04-04 13:52:55 · 584 阅读 · 0 评论 -
偏差-方差
学习算法的预测误差, 或者说泛化误差(generalization error)可以分解为三个部分: 偏差(bias), 方差(variance) 和噪声(noise). 在估计学习算法性能的过程中, 我们主要关注偏差与方差. 因为噪声属于不可约减的误差 (irreducible error).首先抛开机器学习的范畴, 从字面上来看待这两个词:...转载 2019-04-08 15:23:08 · 4008 阅读 · 1 评论