机器学习
你搁这儿写bug呢?
这个作者很懒,什么都没留下…
展开
-
1×1的卷积/交叉通道池化(cross channel pooling)
在看论文Network in Network时,发现一个概念很陌生–cross-channel pooling。于是上网查,找到下面的一个回答: 大概意思是说:这个概念在论文Maout Networks中有解释。假设你有一个线性模块,该模型有50个输出(或者说是有50个channels),但是你想要的是5个输出。你就可以使用cross-channel pooling来减少对chan...翻译 2019-06-12 10:05:33 · 4944 阅读 · 0 评论 -
【转载】图解最大熵原理
原文链接:IT愚公的博客 https://wanghuaishi.wordpress.com/2017/02/21/图解最大熵原理(the-maximum-entropy-principle)/图解最大熵原理(The Maximum Entropy Principle) 这个熵并不是指热力学上熵的概念,而是由信息论男神克劳德 艾尔伍德 香农在1948年提出的信息熵,用来描述信息的不确...转载 2019-07-27 10:38:47 · 564 阅读 · 0 评论 -
【转载】概率和似然
在知乎上看到一个关于“如何理解似然函数?”的回答@HiTao,感觉很好,遂转载。将概率密度函数和似然函数之间的关系,类比成 2b2^b2b 和 a2a^2a2之间的关系。详细如下:我们可以做一个类比,假设一个函数为 aba^bab,这个函数包含两个变量。如果你令b=2,这样你就得到了一个关于a的二次函数,即a2a^2a2 :当你令a=2时,你将得到一个关于b的指数函数,即 2b2^b...转载 2019-07-25 10:26:39 · 175 阅读 · 0 评论 -
【转载】极大似然估计与贝叶斯估计
这篇文章的作者很用心,介绍的很详细。原文链接:jim_刘 https://blog.csdn.net/liu1194397014/article/details/52766760序言本序言是对整体思想进行的一个概括。若没有任何了解,可以先跳过,最后回来看看;若已有了解,可以作为指导思想。极大似然估计与贝叶斯估计是统计中两种对模型的参数确定的方法,两种参数估计方法使用不同的思想。前者来自于...转载 2019-07-12 10:11:30 · 242 阅读 · 0 评论 -
【转载】极大似然估计
原文链接:知行流浪 https://blog.csdn.net/zengxiantao1994/article/details/72787849 以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:贝叶斯决策首先来看贝叶斯分类,我们都知道经典的贝叶斯公式:P(w∣x)=p(x∣w)p(w)p(x)P(...转载 2019-07-11 17:24:26 · 710 阅读 · 0 评论 -
【转载】 tf.slice详解
tf.slice函数为:tf.slice( input_, begin, size, name=None)官网描述为:This operation extracts a slice of size size from a tensor input starting at the location specified b...转载 2019-07-06 16:42:45 · 1986 阅读 · 0 评论 -
分组卷积
分组卷积在AlexNet中提到,下面是AlexNet前两层的卷积,其中第一层没有使用分组卷积,第二层使用了分组卷积。 在进行分析之前,先插入一个知识点“卷积/池化之后的维度计算”输入:[in_hight, in_width, in_channal]卷积操作: 卷积核:[filter_height,filter_width, in_channel, out_channel] 步长:...原创 2019-07-10 11:15:30 · 576 阅读 · 0 评论 -
【转载】深入理解L1、L2范数
原文链接:取个名字最难了 :https://blog.csdn.net/wj5637606/article/details/84582966前言说起L1、L2范数,大家会立马想到这是机器学习中常用的正则化方法,一般添加在损失函数后面,可以看作是损失函数的惩罚项。那添加L1和L2正则化后到底有什么具体作用呢?为什么会产生这样的作用?本篇博文将和大家一起去探讨L1范数、L2范数背后的原理。先说结...转载 2019-07-12 17:51:26 · 590 阅读 · 0 评论 -
【转载】tf.idetity的意义以及用例
最近在学习tensorflow,学到滑动平均窗口函数ExponentialMovingAverage时,里面用到了tf.identity操作,在Stack Overflow上看到一个很好的解释,记录一下,对其中程序稍微修改一下能更好地说明。 原地址 : https://stackoverflow.com/questions/34877523/in-tensorflow-what-is-tf-...转载 2019-06-24 09:11:38 · 299 阅读 · 0 评论 -
准确度、精确度、召回率、ROC曲线、AUC值
在介绍这些概念之前,先来看一下混淆矩阵:TP: True Positive,将正类预测类正类的样本数量(预测正确)FN: False Negtive,将正类预测为负类的样本数量(type II error, 漏报)FP: False Positive,将负类预测为正类的样本数量(type I error)TN: True Negtive,将负类预测为负类的样本数量(预测正确)准确度...原创 2019-07-01 16:23:52 · 6727 阅读 · 0 评论 -
统计学习方法 例7.1 超详细求解过程
例7.1:已知一个如图所示的训练数据集,其正例点是x1=(3,3)T,x2=(4,3)Tx_1=(3,3)^T, x_2=(4,3)^Tx1=(3,3)T,x2=(4,3)T,负例点是x3=(1,1)Tx_3=(1,1)^Tx3=(1,1)T,试求最大间隔分离超平面。解:按照算法7.1,根据训练数据集构造最优化问题:minw,b12(w12+w22)s.t.3w1+3w2+b≥14...原创 2019-08-06 11:38:21 · 7614 阅读 · 9 评论