![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
deeplearning
文章平均质量分 68
lotuswhl
http://www.cnblogs.com/dragonboss/
展开
-
deep learning AI book -chapter05 machine learning basics --notes
Deep learning book chapter05 – notes5.6 Bayesian Statistics 频率派认为θ的真实值是确定而未知的:他们的方法是基于对一个单一变量θ的点估计而后续的工作都是基于那个单一的估计进行的。 而贝叶斯派则将θ的所有可能取值考虑在内,然后做预测。(他们认为θ数据集本身是可以直接观察的,所以并不是随机的,而相对的,参数值的真实值却是未知原创 2017-09-28 10:39:06 · 220 阅读 · 0 评论 -
白话系列之 bias and variance
机器学习中的bias和variance简单理解bias 和variance的概念理解一点点背景 在常见的机器学习问题中,我们往往希望根据已有的数据,使用机器学习的模型和算法去学习已知数据的信息;我们的最终目标是希望我们可以学习到原始数据的真实分布,真实模型,因为只有这样我们才可以使用学习到模型去做我们想做的事,比如预测,判别等等。既然要学习到数据的真实分布,又不得不提机器学习...原创 2018-03-15 16:13:17 · 282 阅读 · 0 评论 -
deep residual net introduction
深度残差网络简介背景 随着深度卷积神经网络的广泛引用,其强大的特征提取能力,使得我们可以使用end-to-end的方式进行网络训练,使得卷积网络本身可以学习到需要的特征,解决我们的目标问题:如图像分类。 但是由于我们使用的是基于梯度下降的backpropagation优化方法,随着网络深度的增加,不得不处理随之而来的梯度vanish、exploding等问题,这给深度网络的训练...原创 2018-03-12 23:17:59 · 185 阅读 · 0 评论 -
深度学习-学习笔记
深度学习-学习笔记背景知识人工智能深度学习人工智能的知识库机器学习逻辑回归朴素贝叶斯数据的表示表示学习 使用机器学习来发掘表示本身! 表示学习算法在短时间内就可以发现一个很好的特征集 表示学习的经典例子:自编码器 变差因素 能够解释观察数据的因素(这些因素通常是不能被直接观察到的量) 他们可以看做数据的概念或者抽象,帮助我们...原创 2018-03-13 14:15:46 · 696 阅读 · 0 评论 -
随笔系列之- log loss
log loss在机器学习构建分类模型的任务中经常使用的损失度量方法; 对数损失的公式为: −∑iN∑jMyijlog(pij)−∑iN∑jMyijlog(pij)-\sum_i^N\sum_j^My_{ij}log(p_{ij}) 其中N对应于我们的样本数或者输入的实例的数量,i对应于某一个样本或者实例;M表示我们的样本可能的分类数量,j表示某一个分类;yijyijy_{ij} 表示对...原创 2018-04-01 21:41:55 · 5347 阅读 · 0 评论 -
随笔系列之 交叉熵(cross entropy) and KL divergence
有关交叉熵Cross Entropy 与KL 散度的一点点cross entropy我相信了解过机器学习的基本算法的人没有不知道交叉熵这个东西的;通常,我们在机器学习的模型训练中会使用交叉熵作为我们损失函数 log loss. 但是,我们可能大概的理解,只要这个交叉熵损失函数越小,我们的模型就会越准确,似乎是意见很神奇的事情;如果理解的多一点的可能会从其表达式来理解,比如:二分类问题的交叉...原创 2018-05-03 22:26:26 · 1545 阅读 · 0 评论