- 博客(9)
- 资源 (19)
- 收藏
- 关注
原创 统计学习:正则化与交叉验证
1. 正则化模型选择的经典方法是正则化(regularization)。正规化是结构风险最小化策略的实现,是在经验风险上加一个正则化项(regularizer)或罚项(penalty term)。正则化一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。比如,正则化项可以是模型参数向量的范数。 正则化一般具有如下形式 minfϵΓ1N∑i=1NL(yi,f(xi))
2017-09-29 16:19:55 1477
转载 深度学习(图像处理)A Neural Algorithm of Artistic Style 图像风格转换 - keras简化版实现
前言深度学习是最近比较热的词语。说到深度学习的应用,第一个想到的就是Prisma App的图像风格转换。既然感兴趣就直接开始干,读了论文,一知半解;看了别人的源码,才算大概了解的具体的实现,也惊叹别人的奇思妙想。声明代码主要学习了【titu1994/Neural-Style-Transfer】的代码,算是该项目部分的简化版或者删减版。这里做代码的注解和解释,也作为一个小玩具
2017-09-26 15:42:59 1000
转载 深度学习(图像处理): A neural algorithm of artistic style算法详解
Gatys, Leon A., Alexander S. Ecker, and Matthias Bethge. “A neural algorithm of artistic style.” arXiv preprint arXiv:1508.06576 (2015).下面这篇发表于CVPR16,内容类似,排版更便于阅读。Gatys, Leon A., Alexander
2017-09-26 15:27:55 3159
转载 池化函数(Pooling Function)
1. 池化(Pooling)概念在神经网络中,池化函数(Pooling Function)一般在卷积函数的下一层。在经过卷积层提取特征之后,得到的特征图代表了 比 像素 更高级的特征,已经可以交给 分类器 进行训练分类了。但是我们 每一组卷积核 都生成 一副与原图像素相同大小的 卷积图,节点数一点没少。如果使用了多个卷积核 还会使得通道数比之前多的多!我靠,这维度
2017-09-22 16:34:14 15551
转载 tensorflow:批标准化(Bacth Normalization,BN)
统计机器学习中有一个经典的假设:Source Domain 和 Target Domain的数据分布是一致的。也就是说,训练数据和测试数
2017-09-22 16:13:42 10023
转载 tensorflow:激活函数(Activation Function)
激活函数(Activation Function)运行时激活神经网络中某一部分神经元,将激活信息向后传入下一层的神经网络。神经网络的数学基础是处处可微的,所以选取激活函数要保证数据输入与输出也是可微的。TensorFlow中提供哪些激活函数的API。激活函数不会改变数据的维度,也就是输入和输出的维度是相同的。TensorFlow中有如下激活函数:1. sigmoid 函数这是传统神...
2017-09-22 15:42:17 18078
转载 tensorflow:卷积函数----tf.nn.conv2d
1. 卷积概念卷积的过程:如下图所示,用一个3*3的卷积核在5*5的图像上做卷积的过程。卷积核如下,大小3*3,在原图上滑动的步长为1。(求解过程是:对应位置相成,然后相加)我们再看一个在三通道图像上的卷积过程,如下:计算步骤解释如下,原图大小为7*7,通道数为3:,卷积核大小为3*3,Input Volume中的蓝色方框和Filter
2017-09-22 14:16:43 2769 1
转载 机器学习——K-近邻(KNN)算法
一 . K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类。但是怎么可能所有测试对象都会找到与之完全匹配的训练对象呢,其次就是存在一个测试对象同时与多个训练对象匹配,导致一个训练对象被分到了多个类的问题,基于这些问题呢,就产生了KNN。 KNN是通过测量不同特征
2017-09-18 09:58:31 955
原创 深度学习中常见分布-正态分布和伽玛分布
正态分布(Normal distribution)又名高斯分布(Gaussian distribution),是一个在数学、物理及工程等领域都非常重要的概率分布,在统计学的许多方面有着重大的影响力。若随机变量X服从一个数学期望为μ、标准方差为σ2的高斯分布,记为:X∼N(μ,σ2),则其概率密度函数为正态分布的期望值μ决定了其位置,其标准差σ决定了分布的
2017-09-12 13:50:41 65578 3
Mushroom Classification--xgboost训练数据
2018-03-02
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人