机器学习
文章平均质量分 67
阿华Go
做一个有责任心有上进心的汉子,我要肩负起守护家人的重任!!!
展开
-
神经网络不学习的原因
转载:神经网络不学习的原因 Neural Network Check List声明:译自Reasons why your Neural Network is not working翻译的虽不标准,也算靠谱Neural Network Check List如何使用这个指南数据问题检查输入数...转载 2019-01-23 09:56:40 · 450 阅读 · 0 评论 -
NMS(非极大值抑制)代码解析
更多代码实现:https://github.com/Tangzixia/Vehicle-Detection-YOLO-ver/blob/master/yolo_tiny.pydef interpret_output(yolo, output): probs = np.zeros((7, 7, 2, 20)) class_probs = np.reshape(output[0:9...原创 2018-05-04 15:59:22 · 956 阅读 · 0 评论 -
目标检测和分类论文中的生僻概念
目标检测相关:目标检测中的相应评价指标:AP,mAP,top-1,top-5,p-r等等一览 http://blog.sina.com.cn/s/blog_9db078090102whzw.htmlmean average precision(MAP)在计算机视觉中是如何计算和应用的? https://www.zhihu.com/question/41540197/answer/916...原创 2018-05-03 16:21:49 · 296 阅读 · 0 评论 -
Fast R-CNN
转载:Object Detection(2):Fast R-CNN Object Detection(1):R-CNN实践这篇承接上一篇,FRCN是rbgirshick在R-CNN基础上提出的改进,提出了一些创新式的做法,不仅提升了训练和测试时的速度,而且提升了精度。SPPnet是Kaiming He提出的一种结构,论文链...转载 2018-04-24 21:11:04 · 423 阅读 · 0 评论 -
机器学习中的两大学派
前面看了很仔细的一些知识,今天换个口味,我们来了解一下机器学习中的两大学派,即频率学派和贝叶斯学派,我们为什么突然走起了这个风格的style呢?是不是没吃药?哈哈哈,不是这样的,是以前对机器学习的理解理解都是挑的比较详细的知识点进行串联,体系结构形成的并不是很完善,因此回头过来看看最基础的一些看似没用的东西,可以起到事半功倍的效果呢,事实证明也的确如此(关于这个论证感兴趣的小伙伴可以从减小过拟合的...原创 2018-04-17 22:15:35 · 1892 阅读 · 0 评论 -
CNN中的小tips(3)---《l1,l2正则化为什么可以减轻过拟合现象》
过拟合现象发生的原因: 过拟合现象:由于神经网络的学习能力过于强大,以至于学到了训练样本中一些不太一般的特点,从而导致模型的泛化能力变差! 本质原因:由于监督学习问题的不适定:可以这样理解,高数中我们通过n个方程求解n个变量,当用这n个方程求解n+1个变量时,就会求解不出来;在监督学习中,我们给定的数据(方程)远远少于模型空间中的变量(变量的个数)。 而且模型越复杂,越容易过拟合!因此过...原创 2018-04-16 22:30:40 · 4323 阅读 · 0 评论 -
机器学习中的验证集的作用和如何使用
验证集的作用:在机器学习或者深度学习中,我们需要了解我们的模型包括什么:1)模型设计:①模型架构(包括模型有多少层,每层有多少个神经元);②可训练权重参数(模型内置参数);2)模型训练的参数(模型外置参数,如学习率、优化策略等等)。这一块具体大家可以去看一下吴恩达老师机器学习的教程,会有很大收获的,如图(截自吴恩达 机器学习教程): 然后我们可以发现什么,bp算法可训练的参数只有什么东东...原创 2018-04-29 20:41:14 · 34865 阅读 · 4 评论 -
训练集(train set) 验证集(validation set) 测试集(test set)
训练集(train set) 验证集(validation set) 测试集(test set)看完之后豁然开朗,原文地址:http://www.cnblogs.com/xfzhang/archive/2013/05/24/3096412.html在有监督(supervise)的机器学习中,数据集常被分成2~3个,...转载 2018-04-29 22:27:16 · 2253 阅读 · 0 评论 -
tensorflow中的conv2d和conv2d_transpose中的参数求解~
#coding=utf-8import tensorflow as tfinput=tf.ones(name="input",shape=(1,18,18,3),dtype=tf.float32)weight=tf.get_variable(name="w",shape=(11,11,20,3),dtype=tf.float32)output_shape=[1,273,273,20]...原创 2018-12-08 21:15:50 · 1170 阅读 · 0 评论 -
tensorflow数据增强方式
方式:http://www.jiangdongzml.com/2018/03/16/Image_Data_Processing/原创 2018-11-14 23:20:25 · 929 阅读 · 0 评论 -
目标检测NMS须知
转载:`機器/深度學習: 物件偵測 Non-Maximum Suppression (NMS)機器/深度學習: 物件偵測 Non-Maximum Suppression (NMS)基本上在影像物件偵測領域上,都是先會選出物件候選人,然後在物件候選人中判斷是不是物件,但有可能一個物件被很多候選框給選到(如下圖),下左圖就是一個例子假設算法抓到這麼多框都是物件,這時候要怎麼處理,幾乎最後的作法都是...转载 2018-11-06 17:16:30 · 892 阅读 · 0 评论 -
相对熵
转载:相对熵(KL散度) 今天开始来讲相对熵,我们知道信息熵反应了一个系统的有序化程度,一个系统越是有序,那么它的信息熵就越低,反之就越高。下面是熵的定义 如果一个随机变量的可能取值为,对应的概率为,则随机变量的熵定义为  ...转载 2018-08-07 11:06:42 · 6913 阅读 · 0 评论 -
xgboost简单介绍
XGBoost全名为(extreme gradient boosting),意译为极端梯度增强算法,看到里面有一个简单的boosting算法,大家是否想到了Adaboosting算法呢?其实就我个人理解,XGBoost其实是结合了bagging和boosting两者的优点然后进行结合而得到的一种超强的新型算法,作为Kaggle的大杀器,它有足够的能力去学习各种各样不规则的特征。 现在我们就来简单...原创 2018-07-01 17:21:44 · 2724 阅读 · 0 评论 -
【机器学习】k-fold cross validation(k-折叠交叉验证)
另一篇博客http://blog.csdn.net/evillist/article/details/76009632交叉验证的目的:在实际训练中,模型通常对训练数据好,但是对训练数据之外的数据拟合程度差。用于评价模型的泛化能力,从而进行模型选择。交叉验证的基本思想:把在某种意义下将原始数据(dataset)进行分...转载 2018-04-29 22:33:07 · 1334 阅读 · 0 评论 -
机器学习笔记:朴素贝叶斯方法(Naive Bayes)原理和实现
转载:[机器学习笔记:朴素贝叶斯方法(Naive Bayes)原理和实现](https://blog.csdn.net/tanhongguang1/article/details/45016421) 本文主要描述了朴素贝叶斯分类方法,包括模型导出和学习描述。实例部分总结了《machine ...转载 2018-03-28 09:13:44 · 799 阅读 · 1 评论 -
贝叶斯公式理解
学习贝叶斯条件概率,我们首先需要知道什么是先验概率和后验概率,先验概率和后验概率的定义如图所示: 因为贝叶斯公式主要是在事件已经发生,需要从其对应的多个原因中选择一个原因,然后求解是该原因所导致的结果的概率,即后验概率,对应的我们可以将问题转化一下,例如求解取一个图片是有角的,求该图片是犀牛的概率,利用贝叶斯公式进行求解,也可以得到预期的效果,大家可以进行尝试,希望有助于大家理解贝叶...原创 2018-03-27 16:51:51 · 872 阅读 · 0 评论 -
层次聚类算法解析
上篇博客我们粗略讲解了一下kmeans聚类算法,其中牵涉到了新的聚类算法:层次聚类算法,本篇博客我们着重讲一下这种聚类算法。 kmeans聚类算法可以看做top-down结构,而层次聚类算法则可以视为bottom-up结构,而且极其类似于霍夫曼编码这种贪心结构算法,不过不同之处在于霍夫曼编码每次找的是分离的两个值最小的两个节点,然后合并成一个节点,而层次聚类算法则找的是两个节点(集合)相似度最小...原创 2018-03-04 17:45:05 · 769 阅读 · 0 评论 -
kmeans聚类算法解密
前面我们了解了很多有监督学习相关的知识,相信大家一定对其中的精彩还回味无穷呢(原谅我就是这么臭不要脸,哈哈哈),最近闲来无事,看了看无监督学习相关的资料和知识,今天我们就先来看看无监督学习之kmenas算法,从名字可以看到两个信息:1)k个簇;2)每个簇的质心是它的means,即均值。我们先来看看kmeans的思路:思路解析:1)确定k个中心表示k个簇(方法各异);2)对n个样本,找...原创 2018-03-04 16:03:49 · 452 阅读 · 0 评论 -
FCN(全卷积网络)进行语义分割
建议大家在阅读本篇博客之前,首先看看这篇论文:A guide to convolution arithmetic for deep learning,仔细理解其中的反卷积操作,注意反卷积之后的通道个数以及对应还原出来的多维数组中代表图像大小的维度的取值范围,就可以很好地理解FCN是如何进行pixel-wise级别的分类任务了! FCN是一个end-to-end的网络,实现像素级别(pixel-w...原创 2018-03-16 11:52:24 · 2212 阅读 · 1 评论 -
YOLO初探
YOLO有S*S的格子,每个格子包含B个边界框,格子对应的预测总的类别数为C种类别。总结重点:1、一张图片中有多个object,即一张图片中有多个对象,如下图所示,我们框了很多的真实框,那么S*S*B个bbox的对应的confidence怎么计算出来呢?confidence=p(object)*IOU(truth,pred),那么p(object)和IOU(truth,pred)怎么求...原创 2018-03-09 11:28:02 · 3301 阅读 · 3 评论 -
tensorflow库和numpy库中的相关函数
tensorflow:tf.placeholder(shape=[2,10],dtype=tf.float32);//占位符操作,类型为[[2,10]的二维张量tf.gather(params,indices);表示从params中根据indices索引获取相应的滑块,举例如下:tf.expand_dims(tensor,axis);表明在制定位置对数据进行扩展一个维度,且扩展的这个维度一定为原创 2017-07-17 16:31:00 · 3641 阅读 · 0 评论 -
机器学习框架的一般套路
谈起机器学习,想必大家都或多或少地对其中多种复杂的框架有些吃不消吧,下面我们就来谈一下机器学习框架的一般套路: 1)获取数据集合;# Load the data# iris.data = [(Sepal Length, Sepal Width, Petal Length, Petal Width)]iris = datasets.load_iris()x_vals = np.array([[原创 2017-07-17 10:58:27 · 522 阅读 · 0 评论 -
Tensorflow结构简介
Tensorflow: 1)使用graph来表示计算任务; 2))graph中的节点是op操作,获取的数据是Tensor,输出的数据也是Tensor,使用Tensor表示在op节点间流动的数据,可以讲一组小图像表示为一个四维浮点数组,这四个维度分别是[batch,height,width,channel]; 3)通过session执行graph,即session启动graph,session将原创 2017-07-07 16:40:57 · 484 阅读 · 0 评论 -
斯坦福CS231N机器学习笔记
斯坦福CS231N课程学习经过多方面的查找资料,对比学习,发现了一个很好的机器学习的课程,斯坦福CS231N课程,课程链接见:http://cs231n.stanford.edu/,课程的大纲和课程表见:http://cs231n.stanford.edu/syllabus.html,里面有课程中用到的ppt等资源,读者可以下载下来进行查看,课程的相关笔记见:http://cs231n.github原创 2017-07-12 15:39:41 · 1916 阅读 · 0 评论 -
最大似然法
要利用最大似然法,我们首先需要明白什么是似然函数,然后再来讲解如何最大,那么到底什么东东是似然函数呢?下面我们来讲解一下哈!likelihood(似然),在英语中和probability(可能)可以互换,所以我们可以猜想这个东西是关于概率的,那为什么不用probability呢?因为在英语中,并不是所有在0,1之间的数都可以称为概率的,所以作者想表达的是,这个词和probability有关系,...原创 2018-03-04 23:19:19 · 1586 阅读 · 0 评论 -
Gaussian Mixture Model(GMM)探索
最近一直在看无监督学习相关的只是,在前面了解了kmeans聚类算法和层次聚类之后,今天我们来探索一下没那么简单的Gassian Mixture Model哈,感受一下数学所带来的震撼和又一次多了对高斯这个神一般的男人的好奇,现在开始转入正题哈! 高斯混合模型,顾名思义,使用多个不同的高斯模型混合而成,用来拟合任意形状的概率分布,至于原因嘛,大家可以看看为什么高斯模型混合模型(GMM)理论上可以拟...原创 2018-03-05 14:54:31 · 1408 阅读 · 0 评论 -
Word2Vec原理详解
转载:Word2Vec原理详解 写在前面为了更方便读者学习,笔者下载了word2vec源码共享在云盘(google官网有时会访问不了),地址。还有关于word2vec实战的 地址下面是转载内容:word2vec 是 Google 于 2013 年开源推出的一个用于获取 word vector 的工具包,...转载 2018-04-08 23:07:27 · 684 阅读 · 0 评论 -
交叉验证
在机器学习中,我们总会提到交叉验证,那么交叉验证到底是什么呢?下面我们就来进行一个简短的介绍!原因:在机器学习里,一般我们并不把所有的训练集用于训练模型,而是将训练集分成训练集和验证集,原因在于,如果我们将所有的训练集用于训练模型的话,直到在测试集阶段才能进行检验我们训练出来的模型的性能,有可能耗费了大量的资源之后得到一个很糟糕的模型,如果我们在训练阶段就可以进行检验,挑选合适的参数进...原创 2018-04-07 18:24:54 · 1440 阅读 · 0 评论 -
卷积操作和反卷积操作的数学解释
预备知识:卷积运算: width:w filter_size:f padding:p stride:s new_width:n_wceil:向下取整运算 n_w=ceil((w-f+zp)/s)+1 反卷积运算: input:i filter_size:f padding:p stride:s output:oo=s(i-1)+f-2*p+a,(a=[0,1,…...转载 2018-03-14 11:55:35 · 3852 阅读 · 2 评论 -
kmeans聚类算法改进
由于kmeans聚类算法对离群点或者噪音很敏感,而且适合凸规模的数据集,而且可能陷入局部最优等等问题,前辈们又提出了很多改进的算法!(总参考:机器学习(25)之K-Means聚类算法详解)二分kmeans(bisecting K-means)算法:思路:1)将所有的数据看做一个簇;2)当簇的个数小于所要求的k时候: 对每一个簇: ...原创 2018-03-05 20:14:10 · 7202 阅读 · 0 评论 -
RCNN探秘
文章结构:主要的步骤1)输入原图—> 2)候选区域生成—> 3)对候选区域进行截取或者放缩变换,统一到统一大小—> 4)对每个候选区域利用CNN进行特征提取—> 5)特征送入每一类SVM分类器中进行判别—> 6)bounding box回归得到候选框位置。1)候选区域生成: 候选区域我们一般采用Selective Search方法,每张...原创 2018-03-18 20:15:57 · 684 阅读 · 0 评论 -
SPP-net解读
介绍:在上面的过程中我们已经看了YOLO实现图片的定位和识别的过程,可以看到它是一个end-to-end的网络,通过设置S*S个格子,然后让每个格子预测B个bbox,然后进行NMS可以得到置信度较大的几个类的预测,然后进行回归分析,注意里面loss值的计算,便可以得到计算速度非常快,效果很不错的YOLO网络,相比faster-rcnn网络,效果没有那么好,但是速度却有了很大的提升!今天我们看一个非...原创 2018-03-20 16:57:10 · 5075 阅读 · 4 评论 -
递归神经网络(RNN)简介
转载:http://blog.csdn.net/aws3217150/article/details/50768453 在此之前,我们已经学习了前馈网络的两种结构——多层感知器和卷积神经网络,这两种结构有一个特点,就是假设输入是一个独立的没有上下文联系的单位,比如输入是一张图片,网络识别是狗还是猫。但是对于一些有明显的上下文特征的序列化输入,比如预测视频中下一帧的播放内容,那么很明显转载 2017-07-12 14:02:34 · 613 阅读 · 0 评论