Deep Learning
文章平均质量分 74
哗啦呼啦嘿
这个作者很懒,什么都没留下…
展开
-
Python-Augmentor(图像增强工具-分割和分类模型适用)
使用之前注意如下三点:1.确定原始图像存储路径以及掩码文件存储路径2.路径下的图像格式要保持一致 比如都是PNG (不然生成不了,检测不到图片)3.image和label的mode格式最好都是RGB (不然会报错如:ValueError: image has wrong mode)#######################数据增强工具##################import Augmentorp = Augmentor.Pipeline("/data1/gyx/QR/mul..原创 2022-03-04 10:59:08 · 3837 阅读 · 1 评论 -
语义分割(Semantic Segmentation)方法-code
#--------------------------# USER-SPECIFIED DATA#--------------------------# Tune these parametersnum_classes = 2image_shape = (160, 576)EPOCHS = 40BATCH_SIZE = 16DROPOUT = 0.75# Specify these directory pathsdata_dir = './data'runs_dir = '..原创 2020-10-14 14:16:47 · 2130 阅读 · 1 评论 -
keras-在新类别上fine-tune inceptionV3
在新类别上fine-tune inceptionV3from keras.applications.inception_v3 import InceptionV3from keras.preprocessing import imagefrom keras.models import Modelfrom keras.layers import Dense, GlobalAverageP...转载 2019-10-29 10:45:19 · 466 阅读 · 0 评论 -
batch_size、iteration以及epoch的区别
首先我们来看看每个的含义:batchsize:中文翻译为批大小(批尺寸)。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;iteration:中文翻译为迭代,1个iteration等于使用batchsize个样本训练一次;一个迭代 = 一个正向通过+一个反向通过;epoch:迭代次数,1个epoch等于使用训练集中的全部样本训练一次;一个epoch =...转载 2019-10-17 19:59:30 · 257 阅读 · 0 评论 -
参数与超参数
参数:就是模型可以根据数据可以自动学习出的变量,应该就是参数。比如,深度学习的权重,偏差等超参数:就是用来确定模型的一些参数,超参数不同,模型是不同的(这个模型不同的意思就是有微小的区别,比如假设都是CNN模型,如果层数不同,模型不一样,虽然都是CNN模型哈。),超参数一般就是根据经验确定的变量。在深度学习中,超参数有:学习速率,迭代次数,层数,每层神经元的个数等等。 参考链接:http...转载 2018-12-12 15:11:22 · 230 阅读 · 0 评论 -
Transposed Convolution, Fractionally Strided Convolution or Deconvolution
反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(Adaptive deconvolutional networks for mid and high level feature learning)。随着反卷积在神经网络可视化上的...转载 2018-12-11 20:38:14 · 180 阅读 · 0 评论 -
图像语义分割(semantic segmentation)
本文对图像语义分割近年来的主要发展做一个综述性的介绍。翻译了以下两篇博文,并进行了整合。https://www.jeremyjordan.me/semantic-segmentation/ http://blog.qure.ai/notes/semantic-segmentation-deep-learning-review转载地址:https://blog.csdn.net/Bi...转载 2019-01-02 16:47:49 · 5631 阅读 · 0 评论 -
语义分割(Semantic Segmentation)方法
翻译来自:https://gist.github.com/khanhnamle1994/e2ff59ddca93c0205ac4e566d40b5e88语义分割方面的资源:https://github.com/mrgloom/awesome-semantic-segmentation1. 什么是语义分割语义分割是当今计算机视觉领域的关键问题之一。从宏观上看,语义分割是一项高层次的任务,...原创 2019-01-02 18:04:09 · 180723 阅读 · 18 评论 -
(简单无需安装cuda,cudann) Ubuntu 安装GPU -Anaconda tensorflow Pytorch
1.Anacodna:Anaconda3-5.0.1-Linux-x86_64.sh添加环境变量:sudo gedit ~/.bashrc把下面这个地址添加到环境变量的语句中,保存退出export PATH=/home/yxgong/anaconda3/bin:$PATH在终端将添加的环境变量生效source ~/.bashrc2.安装NVIDIA的驱动点击w...原创 2019-01-07 11:10:42 · 534 阅读 · 0 评论 -
CNN经典模型:ResNet
ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero也使用了ResNet,所以可见ResNet确实很好用。 下面我们从实用的角度去看看ResNet。 1.ResNet意义...转载 2019-02-21 20:47:21 · 3093 阅读 · 0 评论 -
End-to-End(端到端)的深度学习
1. 什么是End-to-End 学习要知道什么是End-to-End学习首先要知道传统的非End-to-End学习是什么。以语义分类(判断评论为正面评论还是负面评论)为例,非End-to-End的学习需要对语音识别之前要经过两步处理:解析器(Parser) 注释文本和情感分类器(Sentiment Classifier)预测文本。解析器是对文本进行标注,比如形容词(好,坏,糟糕等),...转载 2019-04-16 20:12:37 · 1302 阅读 · 0 评论 -
反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)
FCN于反卷积(Deconvolution)、上采样(UpSampling)https://blog.csdn.net/nijiayan123/article/details/79416764反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)https://blog.csdn.net/A_a_ron/article/details/79181...转载 2019-04-16 22:02:14 · 1115 阅读 · 0 评论 -
BN层
神经网络之BN层背景BN,全称Batch Normalization,是2015年提出的一种方法,在进行深度网络训练时,大都会采取这种算法。原文链接:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift尽管梯度下降法训练神经网络很简单高效,但是需要...转载 2019-05-08 21:10:21 · 1625 阅读 · 0 评论 -
TensorFlow的激励函数
到现在我们已经了解了TensorFlow的特点和基本操作(见文章:快速掌握TensorFlow(一)),以及TensorFlow计算图、会话的操作(见文章:快速掌握TensorFlow(二)),接下来我们将继续学习掌握TensorFlow。本文主要是学习掌握TensorFlow的激励函数。1、什么是激励函数激励函数是所有神经网络算法的必备神器,通过加入激励函数可实现张量计算的非线性化...转载 2018-10-23 15:21:54 · 833 阅读 · 0 评论 -
TensorFlow的损失函数
在前面的文章中,我们已经学习了TensorFlow激励函数的操作使用方法(见文章:快速掌握TensorFlow(三)),今天我们将继续学习TensorFlow。本文主要是学习掌握TensorFlow的损失函数。一、什么是损失函数损失函数(loss function)是机器学习中非常重要的内容,它是度量模型输出值与目标值的差异,也就是作为评估模型效果的一种重要指标,损失函数越小,表明...转载 2018-10-23 15:19:22 · 5898 阅读 · 3 评论 -
物体检测知识梳理
matlab中的IoU计算函数:http://blog.csdn.net/u012905422/article/details/52685076 Bounding box regression详解:http://blog.csdn.net/u011534057/article/details/51235964 物体检测中常用的几个概念迁移学习、IOU、NMS理解:http://blog...转载 2018-10-16 09:48:06 · 131 阅读 · 0 评论 -
非极大值抑制(Non-Maximum Suppression,NMS)
非极大值抑制(Non-Maximum Suppression,NMS)概述非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。这个局部代表的是一个邻域,邻域有两个参数可变,一是邻域的维数,二是邻域的大小。这里不讨论通用的NMS算法(参考论文《Efficient Non-Maximum Suppression》对...转载 2018-10-16 10:20:57 · 474 阅读 · 0 评论 -
基于孪生卷积网络(Siamese CNN)和短时约束度量联合学习的tracklet association方法
基于孪生卷积网络(Siamese CNN)和短时约束度量联合学习的tracklet association方法 一、相关理论 本篇博文主要讲解2015年CVPR的一篇关于图像相似度计算的文章:《Learning to Compare Image Patches via Convolutional Neural Networks》,本篇文章对经典的算法Siamese Networ...转载 2018-10-16 17:10:00 · 4431 阅读 · 0 评论 -
基于深度学习的行人重识别研究综述
前言:行人重识别(Person Re-identification)也称行人再识别,本文简称为ReID,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像。在监控视频中,由于相机分辨率和拍摄角度的缘故,通常无法得到质量非常高的人脸图片。当人脸识别失效的情况下,ReID就成为了一个非常重要的替代品技术...转载 2018-10-17 09:40:12 · 721 阅读 · 0 评论 -
《基于局部二值模式和深度学习的人脸识别》-论文分析
论文:https://pan.baidu.com/s/1RpVQLWPIO0RDW9G_1qfwHA https://pan.baidu.com/s/1kTtrGF1bo7DlyaAO1NqzhQ 一.主要内容: ===> LBP+DBN:将分块的LBP特征作为深度网络的输入,在网络顶层进行分类,测试识别率。 ...原创 2018-04-07 16:18:57 · 1361 阅读 · 0 评论 -
迁移学习
什么是迁移学习?迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。通常,源领域数据量充足,而目标领域数据量较小,这种场景就很适合做迁移学习,例如我们我们要对一个任务进行分类,但是此任务中数据不充足(目标域),然而却又大量的相关的训练数据(源域),但是此训练数据与所需进行的分...转载 2018-10-22 16:31:07 · 692 阅读 · 0 评论 -
卷积神经网络(CNN)
这几年深度学习快速发展,在图像识别、语音识别、物体识别等各种场景上取得了巨大的成功,例如AlphaGo击败世界围棋冠军,iPhone X内置了人脸识别解锁功能等等,很多AI产品在世界上引起了很大的轰动。在这场深度学习革命中,卷积神经网络(Convolutional Neural Networks,简称CNN)是推动这一切爆发的主力,在目前人工智能的发展中有着非常重要的地位。【问题来了】那什...转载 2018-10-22 16:52:44 · 362 阅读 · 0 评论 -
CNN经典模型:LeNet
近几年来,卷积神经网络(Convolutional Neural Networks,简称CNN)在图像识别中取得了非常成功的应用,成为深度学习的一大亮点。CNN发展至今,已经有很多变种,其中有几个经典模型在CNN发展历程中有着里程碑的意义,它们分别是:LeNet、Alexnet、Googlenet、VGG、DRL等,接下来将分期进行逐一介绍。在之前的文章中,已经介绍了卷积神经网络(CNN)的...转载 2018-10-22 17:25:16 · 315 阅读 · 0 评论 -
CNN经典模型:AlexNet
2012年,Alex Krizhevsky、Ilya Sutskever在多伦多大学Geoff Hinton的实验室设计出了一个深层的卷积神经网络AlexNet,夺得了2012年ImageNet LSVRC的冠军,且准确率远超第二名(top5错误率为15.3%,第二名为26.2%),引起了很大的轰动。AlexNet可以说是具有历史意义的一个网络结构,在此之前,深度学习已经沉寂了很长时间,自20...转载 2018-10-22 17:28:30 · 421 阅读 · 0 评论 -
CNN经典模型:VGGNet
2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比赛分类项目的第二名(第一名是GoogLeNet,也是同年提出的)和定位项目的第一名。VGGNet探索了卷积神经网络的深度与其性能之间的关系,成功地构筑了16~19层深的卷积神经网络,证明了增加网...转载 2018-10-22 18:20:16 · 314 阅读 · 0 评论 -
CNN经典模型:GoogLeNet(从Inception v1到v4的演进)
2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构(详见 大话CNN经典模型:VGGNet),而GoogLeNet则做了更加大胆的网络结构尝试,虽然深度只有22层,但大小却比AlexNet和VGG小很多,G...转载 2018-10-22 18:26:47 · 327 阅读 · 0 评论 -
目标检测经典模型(RCNN、Fast RCNN、Faster RCNN)
目标检测是深度学习的一个重要应用,就是在图片中要将里面的物体识别出来,并标出物体的位置,一般需要经过两个步骤:1、分类,识别物体是什么 2、定位,找出物体在哪里 除了对单个物体进行检测,还要能支持对多个物体进行检测,如下图所示: 这个问题并不是那么容易解决,由于物体的尺寸变化范围很大、摆放角度多变、姿态不定,而且物体有很多种类别,可以在图片中出现多种物体、出现在任意位置。因此,目标检测...转载 2018-10-22 18:47:19 · 380 阅读 · 0 评论 -
训练第一个AI模型:MNIST手写数字识别模型
在上篇文章中,我们已经把AI的基础环境搭建好了(见文章:Ubuntu + conda + tensorflow + GPU + pycharm搭建AI基础环境),接下来将基于tensorflow训练第一个AI模型:MNIST手写数字识别模型。MNIST是一个经典的手写数字数据集,来自美国国家标准与技术研究所,由不同人手写的0至9的数字构成,由60000个训练样本集和10000个测试样本集构成...转载 2018-10-23 14:56:06 · 1012 阅读 · 0 评论 -
目标检测物体——滑窗法(Sliding Window)和选择性搜索(Selective Search)
目标检测物体的候选框是如何产生的? 如今深度学习火热的今天,RCNN/SPP-Net/Fast-RCNN等文章都会谈及bounding boxes(候选边界框)的生成与筛选策略。那么候选框是如何产生,又是如何进行筛选的呢?其实物体候选框获取当前主要使用图像分割与区域生长技术。区域生长(合并)主要由于检测图像中存在的物体具有局部区域相似性(颜色、纹理等)。目标识别与图像分割技术的发展进一步推动...转载 2018-10-09 15:38:08 · 17362 阅读 · 0 评论