机器学习
文章平均质量分 56
chaolei_9527
图像处理相关方面的在读研究生,关注计算机视觉,关注机器学习。
展开
-
1*1的卷积核的作用
参考:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit https://iamaaditya.github.io/2016/03/one-by-one-convolution/ http://blog.csdn.net/yiliang_/article/details/60468655 http://blog.csdn.n...原创 2018-02-25 11:16:34 · 3138 阅读 · 0 评论 -
全面讲解PCA算法
转载自:http://blog.codinglabs.org/articles/pca-tutorial.htmlPCA 概述PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。数据的向量表示一般情况下,在数据挖掘和机器学习...转载 2018-03-01 21:09:18 · 1280 阅读 · 0 评论 -
对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解
参考: https://zhuanlan.zhihu.com/p/28749411 https://zhuanlan.zhihu.com/p/28186857 https://blog.yani.io/filter-group-tutorial/ https://www.zhihu.com/question/54149221 http://blog.csdn.net/guvcolie/a...原创 2018-02-26 20:39:03 · 37853 阅读 · 21 评论 -
交叉验证与训练集、验证集、测试集
参考:李航–《统计学习方法》 https://www.jianshu.com/p/7e032a8aaad5 https://zhuanlan.zhihu.com/p/20900216?refer=intelligentunit训练集、验证集、测试集如果给定的样本数据充足,我们通常使用均匀随机抽样的方式将数据集划分成3个部分——训练集、验证集和测试集,这三个集合不能有交集,常见的比例是8原创 2018-02-06 15:19:20 · 39371 阅读 · 22 评论 -
核密度估计
参考:https://www.zhihu.com/question/27301358 https://www.zybang.com/question/3797fbcae06ac70f5071ff1ee42f23e2.html http://blog.csdn.net/baimafujinji/article/details/51720090 声明:本篇博客大部分都是借鉴慧航的解答,链接在上面原创 2018-02-02 16:36:50 · 3530 阅读 · 2 评论 -
mean shift
参考: http://blog.csdn.net/google19890102/article/details/51030884 http://www.cvvision.cn/5778.html https://wenku.baidu.com/view/5862334827d3240c8447ef40.html http://blog.csdn.net/qq_23968185/articl原创 2018-01-31 19:48:35 · 2876 阅读 · 0 评论 -
树分类、线性回归和树回归的感性认知
链接:http://blog.csdn.net/darknightt/article/details/70169699 假设一个数据集:样本:n个人 特征:m个特征(体重、身高等) 类别:男,女 预测值:健康系数(范围0~100) 分类的目的:把n个人分成男,女两堆(二分类)分类决策树多次二分类。假设在某次分类中选用体重作为分类特征,50kg作为阈值,那么大于50转载 2018-01-21 21:25:00 · 466 阅读 · 0 评论 -
空间中任一点到超平面的距离公式的推导过程
转载别人的博客,由于看到的也是别人转载的,具体地址已不可考。所以对原作者说声抱歉,没能附上转载的地址。 在这里对上面的公式推导做个解释,由于2个向量的点积的公式为,而向量想x0x1又与超平面平行,所以2者形成的夹角0或者180,也就是cosα=+1或者-1,所以2个向量点积的绝对值为2者模的乘积。也就是L2范数那一行成立的理由。转载 2017-12-20 14:46:45 · 6619 阅读 · 3 评论 -
机器学习笔记--基本概念
降维机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,y是数据点映射后的低维向量表达,通常y的维度小于x的维度,当然提高维度也是可以的。特征选择还有一大类方法本质上也是做了降维,叫做特征选择(feature selection),目的是从原始的数据feature集合中挑选一部分作为数据原创 2017-12-27 19:49:18 · 356 阅读 · 1 评论 -
感知机模型
参考: http://blog.csdn.net/dream_angel_z/article/details/48915561 http://mp.weixin.qq.com/s/2QHG0D1j0hQyErYg7Cp53w感知机模型是理解SVM和神经网络的基础。在这里我们可以从感知机模型上看到神经网络的影子,通过简单的堆叠就可以成为MLP(神经网络的一种),在损失函数上看到SVM的影子。感知机翻译 2017-12-18 19:55:57 · 752 阅读 · 0 评论 -
超平面与线性可分
参考:http://mp.weixin.qq.com/s/2QHG0D1j0hQyErYg7Cp53w http://blog.csdn.net/m0_37658225/article/details/70048959 在介绍线性可分之前就必须先介绍一下超平面的概念。 通常我们熟知的“平面”,一般定义在3维的空间中,即形式为Ax+By+Cz+D=0。只有当维度大于3时,才称为“超”。而超平面的原创 2017-12-18 10:52:28 · 3837 阅读 · 0 评论 -
深度学习笔记--激活函数:sigmoid,maxout
在神经网络中引入激活函数一个重要的原因就是为了引入非线性。1.sigmoid从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小。从神经科学上来看,中央区酷似神经元的兴奋态,两侧区酷似神经元的抑制态,因而在神经网络学习方面,可以将重点特征推向中央区,将非重点特征推向两侧区。 函数形式为。它的优点是输出范围为(0, 1),所以可以用作输出层,用输出值来表示概率。也叫做原创 2017-12-22 14:35:31 · 11290 阅读 · 0 评论 -
Filter Concatenationd的理解
参考:http://blog.csdn.net/qq_28132591/article/details/64124491 这个名词出现在Inception结构中,如下图是原始的Inception的结构。 不同大小的卷积是否导致不一样尺寸的输出在Inception中,对于同一个输入,若使用不同大小的卷积核,输出不一定是不同大小W、H,还要看步长(stride)和填充(padding)...原创 2018-02-25 17:06:29 · 7381 阅读 · 1 评论