自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 资源 (1)
  • 收藏
  • 关注

转载 理解:L1正则先验分布是Laplace分布,L2正则先验分布是Gaussian分布

转自:https://blog.csdn.net/m0_38045485/article/details/82147817L1、L2正则化来源推导L1L2的推导可以从两个角度:带约束条件的优化求解(拉格朗日乘子法)贝叶斯学派的:最大后验概率1.1 基于约束条件的最优化对于模型权重系数w的求解释通过最小化目标函数实现的,也就是求解:首先,模型的复杂度可以用VC来衡量。通常情况下,...

2018-12-02 15:40:09 1006

转载 为什么要将全连接层转化为卷积层

转自:https://www.cnblogs.com/liuzhan709/p/9356960.html理解为什么要将全连接层转化为卷积层1.全连接层可以视作一种特殊的卷积考虑下面两种情况:特征图和全连接层相连,AlexNet经过五次池化后得到7*7*512的特征图,下一层全连接连向4096个神经元,这个过程可以看做有4096个7*7*512的卷积核和7*7*512的特征图进行卷积...

2018-12-02 14:57:14 1109

原创 极大似然估计

 极大似然原理其实最简单的理解就是:样本所展现的状态便是所有可能状态中出现概率最大的状态。 极大似然估计即通过样本的结果来对总体的某个参数θ进行估计,θ估计值即为使得这一结果发生的概率为最大才合理。...

2018-08-20 11:30:18 279

转载 训练集(train set) 验证集(validation set) 测试集(test set)

转自http://www.cnblogs.com/xfzhang/archive/2013/05/24/3096412.html 在有监督(supervise)的机器学习中,数据集常被分成2~3个,即:训练集(train set) 验证集(validation set) 测试集(test set)。http://blog.sina.com.cn/s/blog_4d2f6cf201000...

2018-08-08 21:05:28 1973

转载 深度学习技巧(激活函数-BN-参数优化等等)

转自https://blog.csdn.net/myarrow/article/details/518482851. 深度学习技巧简介    1)一次性设置(One time setup)          - 激活函数(Activation functions)          - 数据预处理(Data Preprocessing)          - 权重初始化(Weig...

2018-08-02 17:25:19 3452

转载 贝叶斯公式理解(先验概率/后验概率)

转载自https://www.cnblogs.com/ohshit/p/5629581.html(1)条件概率公式        设A,B是两个事件,且P(B)>0,则在事件B发生的条件下,事件A发生的条件概率(conditional probability)为:                     P(A|B)=P(AB)/P(B) (2)乘法公式       ...

2018-07-31 11:54:46 41512 3

原创 机器学习之近似误差和估计误差

  近似误差:可以理解为对现有训练集的训练误差。 近似误差,更关注于“训练”。  估计误差:可以理解为对测试集的测试误差。 估计误差,更关注于“测试”、“泛化”。  ...

2018-07-25 16:20:42 3621

原创 贪心算法

 贪心算法是指:在每一步求解的步骤中,它要求“贪婪”的选择最佳操作(即选择当前最优),并希望通过一系列的最优选择,能够产生一个问题的(全局的)最优解。  贪心算法每一步必须满足一下条件:  1、可行的:即它必须满足问题的约束。  2、局部最优:他是当前步骤中所有可行选择中最佳的局部选择。  3、不可取消:即选择一旦做出,在算法的后面步骤就不可改变了。...

2018-07-24 16:12:54 147

原创 卷积后feature map尺寸计算公式

像素宽度:W(Width)填充大小:P(Padding)卷积核大小:K(Kernel-size)步长大小:S(stride) 卷积后所得feature map尺寸大小计算公式如下: 补充:1.Padding的作用用于解决图像边缘信息损失的问题;2.计算卷积后map尺寸时若不为整数则向下取整,而计算pooling后尺寸时则向上取整。...

2018-07-22 10:30:33 6279 1

原创 Transfer Learning(迁移学习)

Transfer LearningIn practice, very few people train an entire Convolutional Network from scratch (with random initialization), because it is relatively rare to have a dataset of sufficient size. Inste...

2018-03-28 17:27:06 1182 1

转载 这个动态规划分析的很详细(转载)

动态规划动态规划转自:http://www.cnblogs.com/raichen/p/5772056.html通过把原问题分解为相对简单的子问题的方式求解复杂问题的方法。动态规划常常适用于有重叠子问题和最优子结构性质的问题。基本思想若要解一个给定问题,我们需要解其不同部分(即子问题),再合并子问题的解以得出原问题的解。 通常许多子问题非常相似,为此动态规划法试图仅仅解决每个子问题一次,从而减少计...

2018-03-28 17:18:51 318

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除