深度学习
张学渣
ISCAS小硕一枚~ 阿里云CV算法工程师
展开
-
COCO API-COCO模块在det中的应用
COCO的 全称是Common Objects in COntext,是微软团队提供的一个可以用来进行图像识别的数据集。MS COCO数据集中的图像分为训练、验证和测试集。COCO通过在Flickr上搜索80个对象类别和各种场景类型来收集图像,其使用了亚马逊的Mechanical Turk(AMT)。我只讨论det中COCO的使用啦,在det中使用的是COCO的 Objce Instance类...原创 2020-04-22 20:32:39 · 3064 阅读 · 0 评论 -
理解分组卷积与深度可分离卷积
这两种卷积分别是在ResNext论文与MobileNet系列中体现的,貌似Xception中也有深度可分离卷积的体现。作用都很简单,为了降参。目录1. 分组卷积 group convolution2 深度可分离卷积depthwise separable convolution1. 分组卷积 group convolution最早出现分组卷积的是AlexNet,说实话网...原创 2020-04-09 16:24:50 · 2980 阅读 · 0 评论 -
ubuntu16.04安装NIVIDIA显卡驱动,cuda8.0,cuDNN6.0以及基于Anaconda安装Tensorflow-GPU
一、安装NAVIDIA驱动安装之前首先得下载NAVIDIA驱动,其中语言要选择Chinese下载好以后看一下,应该在Download哪里1.打开终端,先删除旧的驱动sudo apt-get purge nvidia*2.禁用自带的 nouveau nvidia驱动创建一个文件通过命令 ...转载 2019-01-16 13:41:49 · 602 阅读 · 1 评论 -
Focal loss
一 总述Focal loss主要是为了解决单阶段正负样本比例严重不均衡的问题,何凯明大神认为单阶段检测与双阶段检测精度差别的本质原因是由于前景、背景样本分布均匀造成的,想想双阶段检测如faster rcnn系列,有RPN罩着啊!先经过一轮粗分类,去掉了目标置信度比较低的候选框,然后再经过OHEM等方法在正负样本分布相对不那么大的情况下进行细分类,而单阶段一次就能产生100k+的候选框,这么多的...原创 2019-03-01 15:15:17 · 380 阅读 · 0 评论 -
浅谈什么是张量tensor
大数据文摘作品,转载要求见文末编译 | 邵胖胖,江凡,笪洁琼,Aileen也许你已经下载了TensorFlow,而且准备开始着手研究深度学习。但是你会疑惑:TensorFlow里面的Tensor,也就是“张量”,到底是个什么鬼?也许你查阅了维基百科,而且现在变得更加困惑。也许你在NASA教程中看到它,仍然不知...转载 2019-02-26 09:36:49 · 776 阅读 · 1 评论 -
浅谈计算机视觉中的注意力机制
视觉注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。这是人类利用有限的注意力资源从大量信息中快速筛选出高价值信息的手段,是人类在长期进化中形成的一种生存机制,人类视觉注意力机制极大地提高了视觉信息处理的效率与准确性。计算机...原创 2019-03-19 16:07:31 · 8866 阅读 · 2 评论 -
通俗理解word2vec
独热编码独热编码即 One-Hot 编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。举个例子,假设我们有四个样本(行),每个样本有三个特征(列),如图:我们的feature_1有两种可能的取值,比如是男/女,这里男用1表示,女用2表示。feature_2 和feature_3各有4种取值(状态)。o...转载 2019-03-20 10:59:00 · 275 阅读 · 0 评论 -
卷积神经网络(CNN)反向传播算法
https://www.cnblogs.com/pinard/p/6494810.html转载 2019-03-21 15:33:18 · 888 阅读 · 0 评论 -
准确率、精确率、召回率、F1值、ROC/AUC整理笔记
对于二分类问题,机器预测的和实际的还是会有所偏差,所以我们引入以下几个概念来评价分类器的优良。一、TP、TN、FP、FN概念首先有关TP、TN、FP、FN的概念。大体来看,TP与TN都是分对了情况,TP是正类,TN是负类。则推断出,FP是把错的分成了对的,而FN则是把对的分成了错的。(我的记忆方法:首先看第一个字母是T则代表分类正确,反之分类错误;然后看P,在T中则是正类,若在F中则实际为...原创 2019-03-13 16:50:30 · 3607 阅读 · 0 评论 -
Docker镜像推送(push)到Docker Hub
镜像构建成功后,只要有docker环境就可以使用,但必须将镜像推送到Docker Hub上去。我们之前创建的镜像不符合Docker Hub的tag要求,因为 在Docker Hub注册的用户名是boonyadocker而不是boonya,所以需要docker tag进行修改,最后利用docker push命令推送镜像到公共仓库。Docker hub注册用户到官网注册账号:https://hub.d...转载 2019-01-15 13:51:22 · 1748 阅读 · 0 评论 -
docker搭建深度学习环境
搭建深度学习计算平台,一般需要我们在本机上安装一些必要的环境,安装系统、显卡驱动、cuda、cudnn等。而随着Docker的流行,往往能够帮我们轻松的进行环境搭建、复制与隔离,所以官方也利用容器技术与深度学习相结合,因此也出现了以下方案。容器方案比传统方案带来更多的随意性,装系统前不需要考虑Ubuntu哪一个版本符合不符合我们的代码运行要求,我们只需要安装一个自己喜欢的(18.04完全可以)...原创 2019-01-15 11:37:48 · 1369 阅读 · 0 评论 -
【深度学习】ResNet实现
源代码:https://github.com/pytorch/vision/blob/master/torchvision/models/resnet.py首先需要导入相关的库。注意这个文件中实现了五种不同层数的ResNet模型’resnet18’, ‘resnet34’, ‘resnet50’, ‘resnet101’, ‘resnet152’ import torch.nn as...转载 2018-12-12 16:20:52 · 826 阅读 · 1 评论 -
【深度学习】Dilated/Atrous conv 空洞卷积/多孔卷积
DilatedDilated可以叫空洞卷积或者扩张卷积。空洞卷积诞生于图像分割领域,图像输入到网络中经过CNNCNN横空出世。在讲空洞卷积都会用到原论文中的一张图来说明 在空洞卷积中有个重要的参数叫raterate,这个参数代表了空洞的大小。 要理解空洞概念和如何操作可以从两个角度去看。 1)从原...转载 2018-12-14 09:33:23 · 560 阅读 · 0 评论 -
【深度学习】1*1的卷积核到底有什么作用
1*1的卷积核在NIN、Googlenet中被广泛使用,但其到底有什么作用也是一直困扰的问题,这里总结和归纳下在网上查到的自认为很合理的一些答案,包括1)跨通道的特征整合2)特征通道的升维和降维  3)减少卷积核参数(简化模型)部分转载自caffe.cn作用:1. 实现跨通道的交互和信息整合2....转载 2018-12-14 11:03:44 · 4566 阅读 · 0 评论 -
【深度学习】对batch Normalization(批归一化)的理解
Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift 关于BN的好处: 1. 最主要的是减少梯度消失,加快收敛速度。 2. 允许使用更大的学习率,不需要drop out,减少L2正则,防止过拟合。阅读paper的难点主要在两个:1.为什么通过...原创 2018-12-10 14:18:36 · 1406 阅读 · 0 评论 -
【深度学习/目标检测】详解 ROI Align 的基本原理和实现细节
尊重作者,转载网址。ROI Align 是在Mask-RCNN这篇论文里提出的一种区域特征聚集方式, 很好地解决了ROI Pooling操作中两次量化造成的区域不匹配(mis-alignment)的问题。实验显示,在检测测任务中将 ROI Pooling 替换为 ROI Align 可以提升检测模型的准确性。...转载 2019-01-04 09:58:14 · 1803 阅读 · 0 评论 -
【深度学习】ResNeXt
论文:Aggregated Residual Transformations for Deep Neural Networks论文链接:https://arxiv.org/abs/1611.05431PyTorch代码:https://github.com/miraclewkf/ResNeXt-PyTorch这是一篇发表在2017CVPR上的论文,介绍了ResNet网络的升级版:ResN...转载 2019-01-04 14:24:44 · 275 阅读 · 0 评论 -
【深度学习】如何理解反卷积
一句话解释:逆卷积相对于卷积在神经网络结构的正向和反向传播中做相反的运算。逆卷积(Deconvolution)比较容易引起误会,转置卷积(Transposed Convolution)是一个更为合适的叫法.举个栗子:4x4的输入,卷积Kernel为3x3, 没有Padding / Stride, 则输出为2x2。 不难想象其实就是如下的稀疏阵:平时神经网络中的正向传...原创 2019-01-03 14:08:53 · 473 阅读 · 0 评论 -
【深度学习】对ResNet论文的理解
ResNet在2015年被提出,在ImageNet比赛classfication任务上获得了第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测、分割、识别等领域纷纷使用ResNet,Alpha zero也使用ResNet,所以可见ResNet确实很好用。一 ResNet的意义深度卷积网络在图像分类领域取得了一系列的突破,深度网络...原创 2018-12-12 16:03:58 · 685 阅读 · 0 评论