机器学习
文章平均质量分 53
LB_莫贺延碛
没智商,没毅力,仅仅有一点点运气。
努力向各位前辈大牛学习。
展开
-
贝叶斯学派与频率学派有何不同?
看PRML关于贝叶斯概率的时候晕的不行。。。从知乎、csdn上看到一些回答。摘录如下著作权归作者所有。作者:任坤链接:http://www.zhihu.com/question/20587681/answer/17435552来源:知乎简单地说,频率学派与贝叶斯学派探讨「不确定性」这件事时的出发点与立足点不同。频率学派从「自然」角度出发,试图直接为「事件」本身建模,转载 2015-11-02 17:53:18 · 1292 阅读 · 0 评论 -
交叉熵
文章转自:http://blog.csdn.net/rtygbwwwerr/article/details/50778098交叉熵(Cross-Entropy)交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细的分析。1.什么是信息量?假设X是一个离散型随机变量,其取值集合为X,概率分布函数为p(x)=Pr(X=x),x∈X,我们定义事件X=x0的信息量为:...转载 2017-02-14 18:02:02 · 24225 阅读 · 0 评论 -
KL散度
转自:http://blog.csdn.net/acdreamers/article/details/44657745今天开始来讲相对熵,我们知道信息熵反应了一个系统的有序化程度,一个系统越是有序,那么它的信息熵就越低,反之就越高。下面是熵的定义 如果一个随机变量的可能取值为,对应的概率为,则随机变量的熵定义为 有了信息熵的定义,接转载 2017-05-26 19:03:09 · 891 阅读 · 0 评论 -
奇异值分解(SVD)原理详解及推导
转自出处http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系。前段时间看了国外的一篇文章,叫A Singularly Valuable Decomposition The SVD of a Matrix,觉得分转载 2017-01-14 23:22:16 · 1470 阅读 · 0 评论 -
神经网络时间复杂度
拿一个简单的三层BP神经网络来说好了,假设每层神经元数量分别为n1,n2,n3。拿一个样本(n1 * 1)进行前馈计算,那么就要进行两次矩阵运算,两次矩阵乘法(实际上是向量和矩阵相乘)分别要进行n1 * n2 和 n2 * n3次计算,由于输入层和最终输出层结点数量(n1和n3)是确定的,所以可以视为常量,中间的隐藏层n2可以由自己设定。所以对一个样本的前馈计算时间复杂度应该是原创 2016-12-30 10:56:36 · 15585 阅读 · 6 评论 -
Opencv HOG行人检测 源码分析(一)
转自:http://blog.csdn.net/ttransposition/article/details/11874285OpenCV demo演示见本人的另一篇灌水博客http://blog.csdn.net/soidnhp/article/details/11720801本人源码分析见 http://blog.csdn.net/soidnhp/article/det转载 2016-10-13 17:15:38 · 519 阅读 · 0 评论 -
softmax回归
转自:http://blog.csdn.net/acdreamers/article/details/44663305在上一篇文章中,讲述了广义线性模型。通过详细的讲解,针对某类指数分布族建立对应的广义线性模型。在本篇文章中,将继续来探讨广义线性模型的一个重要例子,它可以看成是Logistic回归的扩展,即softmax回归。 我们知道Logistic回归只能进行二分类,因为它转载 2016-09-27 11:44:52 · 5336 阅读 · 2 评论 -
概率论复习 – ML vs. MAP vs. Bayesian Inference
转自:http://www.xperseverance.net/blogs/2012/11/1396/距离上次好好看这些概念大概半年过去了,很不幸,真的把他们忘记了。果真是不用则费,即使是简单的概念。这次要写下来,以后再忘记则看看就容易回忆起来,事实上我现在觉得不太可能再忘记了……参考资料:《统计学完全教程》、《PR&ML》、《Parameter estimation for转载 2016-10-11 21:44:09 · 3573 阅读 · 0 评论 -
梯度和方向导数
梯度和方向导数的概念在 ML和数字图像处理中有着广泛的应用,但每次看了之后又很容易忘记,转一篇文章记录下转载出处:http://blog.163.com/cindy_19810217/blog/static/201059118201111169320477/1. 梯度:为了标记两个一阶偏导数,而取的一个特殊名称。函数f(x, y)的梯度定义为:,和分别是x和y方向上的切线斜率。转载 2015-12-18 11:10:44 · 4178 阅读 · 0 评论 -
DL文本分类论文总结 part1
最近对之前看的部分论文论文进行一些总结(大部分论文都实在实验和模型上进行改进和创新,想看理论分析的可能要失望了)。1. A Convolutional Neural Networkfor Modelling Sentences看的第一篇使用卷积神经网络进行文本分类的文章,主要有两点:1. K-max pooling 在序列中取前k大的数并且保持相对位置不变2原创 2017-09-20 16:12:44 · 1322 阅读 · 0 评论