深度学习
文章平均质量分 91
GodWriter
今天不想跑,所以才去跑
展开
-
理解Numpy中 [, ...] 即使用三个点的数据切片方式
为什么要写这个博客呢?当我第一次在代码中看到 A[0, ...],我还以为代码出bug了。随后我就测试了一下,没想到不仅没bug,而且功能还很强大,故写一个博客供大家参考。创建随机数组import numpy as npa = np.random.randn(3,3,3)print(a)输出结果:array([[[ 0.48999556, 0.3488171...原创 2019-06-25 09:51:19 · 2128 阅读 · 2 评论 -
理解Numpy中axis的正确姿势
写这个博客的关键起因:np.any()这个函数,其中参数axis的指定让我好一阵头脑风暴。除了在np.any()中,很多numpy的API都有axis这个变量,那么到底如何理解呢?在一番思考后,总结下来给大家分享。二话不说,先上图三维矩阵中axis示意图 当我们创建一个三维矩阵的时候,如图中的矩阵维度为(2, 3, 3),axis所对应的维度如图所示。...原创 2019-06-06 12:44:42 · 1179 阅读 · 0 评论 -
Reinforcement Learning 2
1. 两种Policy强化学习有两种训练方法:On-policy,要学的Agent边学边玩Off-policy,要学的Agent看别人玩前文讲解的Policy Gradient其实是On-policy的做法,这理解起来很直观:∇Rˉθ=Eτ∼Pθ(τ)[R(τ)∇log(Pθ(τ))]\nabla\bar{R}_\theta = E_{\tau\thicksim P_\theta(\tau)}[R(\tau)\nabla log(P_\theta(\tau))]∇Rˉθ=Eτ∼Pθ(τ)原创 2020-06-04 22:51:02 · 237 阅读 · 0 评论 -
Mxnet—下游
任务描述 成功安装了mxnet后,我的目标就是:调用mxnet已经写好的目标检测方法,调整数据集训练模型,如:SSD,Faster-RCNN,YOLOv3。进入Mxnet的官网,选择GlounCV Toolkit,下面有好东西。选择GluonCV Toolkit 选择你想要的用的模型,如SSD,将.py文件下载下来,如下图:选择ssd,点击file_download...原创 2019-08-02 14:58:56 · 546 阅读 · 0 评论 -
Mxnet—入流
任务描述 早已听闻mxnet大名,但由于对新事物的抵触而不愿多接触。由于论文实验得需要,不得不刚一下mxnet了。果然与我意料的一样,刚开始就差点结束了。由于对mxnet的不熟悉,在安装的时候就出了一堆乌龙。快乐安装 由于主要为了做一些目标检测的实验,如:SSD,R-CNN,YOLO,故我兴奋的选择GluonCV系列,选择安装,看到如下界面:mxnet安装页面...原创 2019-08-01 14:59:39 · 1171 阅读 · 0 评论 -
Tensorflow 疑惑解答
本文希望以最精简的语言记录并解释tensorflow使用中遇到的疑惑。与API学习不同的是,这篇用于记录tensorflow特有的机制,如:会话机制,variable_scope用法等系列问题。tensorflow 广播测试a = tf.constant([[[1, 1, 1], [2, 2, 2]], [[3, 3, 3], [4, 4, 4]], ...原创 2018-12-25 17:59:53 · 228 阅读 · 0 评论 -
Tensorflow:tf-record处理矩阵或张量数据方法及注意事项
写这个博客的关键Bug:Input to reshape is a tensor with xxx values, but the requested shape has xxx。本文的先验知识为:tensorflow中tfrecord的创建和导入。问题引入 tensorflow feature类型只接受list数据,但如果数据类型是矩阵或者张量该如何处理? ...原创 2019-05-14 10:26:14 · 2148 阅读 · 4 评论 -
深入BBN,如何解决长尾数据分布的同时兼顾表示学习
1. 问题引入本次要记录的论文是,CVPR2020 的 " BBN: Bilateral-Branch Network with Cumulative Learning for Long-Tailed Visual Recognition "。该文旨在解决长尾数据分布的同时兼顾表示学习。长尾数据是视觉认知任务如:图像分类、目标检测中影响实验结果的主要问题之一。长尾数据分布的意思是:数据集中某几个类别占据了大部分的数据,而剩余的类别各自的数据很少。举个例子,想用一个1000张图像的数据集训练一个分类模原创 2020-06-13 22:15:29 · 2660 阅读 · 1 评论 -
Reinforcement Learning 1
1. RL几个应用Learning to play AlphaGoSupervised(监督学习的方式)从老师那里学习,即通过打标签的方式学习比如看棋谱学,但棋谱是人下的,人下的那一步就是最优的吗?Reinforement Learning从经验中学习,其实人可能都不知道哪一步是最优的AlphaGo的学习方式先做Supervised Learning,从高手棋谱中学习通过Supervised Learning训练出两个模型,他们互相博弈Learning a C原创 2020-05-26 21:34:34 · 388 阅读 · 0 评论 -
强势源码理解RPN区域推荐网络
1. Anchor Generation Layer对于生成anchors的源码理解主要来源于两个代码RBG大神的caffe源码:https://github.com/rbgirshick/py-faster-rcnnGithub上复现的pytorch源码:https://github.com/chenyuntc/simple-faster-rcnn-pytorch由于两种方法生成an...原创 2020-05-06 20:20:28 · 425 阅读 · 0 评论 -
强势理解Faster-RCNN的几个难解之谜
1. 几个问题Anchor和全卷积输出值之间的关系“回归系数”是什么,有什么用?在选择RPN Boxes时,既要考虑RPN Boxes与Ground Truth的IOU来筛选,又要考虑每个RPN boxes为物体前景的概率。那么在筛选RPN Boxes的时候,哪个先考虑,哪个后考虑,还是说同时考虑?如果说是同时考虑,又怎么考虑?2. Anchor Generation Layer...原创 2020-05-06 20:12:22 · 1192 阅读 · 1 评论 -
那些堪比照片质感的PhotoRealistic Style Transfer系列
1. Prerequisite Knowledge此部分为预备知识,主要涉及内容如下:Upsampling, Uppooling, Transpose Convolution(上采样,上池化,转置卷积)Whitening and Coloring Transformations(白化与上色)Wavelet Transforms(小波变换)若是熟悉这几块内容的童鞋可以直接跳...原创 2020-03-30 14:05:48 · 1308 阅读 · 7 评论 -
基于Adjustable Parameters的Style Transfer系列论文
1. Adjustable Real-Time Style Transfer (ICLR 2018)针对什么问题 本文指出基于现有风格迁移算法训练得到的模型,只能生成固定内容结构及风格模式的Stylized Images(风格化图)。此外,选取不同的风格图作为输入,总是得调整损失函数中每一层卷积特征的权重www,一旦使用者对生成的结果不满意,就要重新训练该模型。提出什么方法...原创 2020-02-15 20:27:29 · 578 阅读 · 0 评论 -
逆思维:GAN不能生成什么?Seeing What a GAN Cannot Generate
1. Abstract虽然GAN很成功,但是模式崩塌(Mode Collapse)的问题依然存在,而现在少有论文去理解并量化GAN到底抛弃了哪些模式。故本文在两个级别的基础上可视化了模式崩塌:分布级(Distribution Level)和实例级(Instance Level)。首先,对生成数据集和目标数据集使用语义分割网络,统计两个数据集中被分割出来的物体的分布。分布的不同将会透露出G...原创 2020-01-04 22:29:10 · 923 阅读 · 0 评论 -
基于Disentangle的Image-to-Image Translation系列
1. Multimodal Unsupervised Image-to-Image Translation针对什么问题?本文指出,在许多场景中,对于交叉领域的映射是多模态的,而现有的Image-to-Image Translation方法,如Pix2Pix, CycleGAN经仅仅只能得到一个确定性的映射。这是什么意思呢?举个例子,一个冬天的场景可能会有多个状态,天气、时间、光线等因素...原创 2019-12-13 11:14:23 · 1352 阅读 · 0 评论 -
教师-学生网络下Self-Ensembing with GAN-based Data Augmentation for Domain Adaption in Sematic Segmentation
1. Abstract基于深度学习的语义分割有着固有的缺陷:需要大量的数据本文引入self-ensembling,想基于无监督下的领域自适应来解决数据问题,但通过self-ensembling中微调过的人工数据难以缩减语义分割中巨大的领域距离(Domain Gap)为此,本文提出一个由两部分组成的框架首先,基于GAN提出一个数据增强方法,能有效促进领域的对齐(Domain Alignm...原创 2019-12-11 11:09:07 · 2866 阅读 · 1 评论 -
Windows10下visdom启动失败解决方案
任务描述最近采集了一批数据,想调用CycleGAN完成领域迁移看看效果。于是就网上找了开源的CycleGAN代码,代码能够正常运行,但是调用visidom显示总会报错:HTTP Error。故记录下本人解决的过程启动visdompython -m visdom.server调用cmd启动visdom.server 但代码会卡住,卡在下载脚本解决卡顿卡顿的原因就...原创 2019-12-03 20:00:21 · 4508 阅读 · 5 评论 -
Tensorflow加载Vgg预训练模型的几个注意事项
写这个博客的关键Bug:Value passed to parameter 'input' has DataType uint8 not in list of allowed values: float16, bfloat16, float32, float64。本博客将围绕 加载图片 和 保存图片到本地 来详细解释和解决上述的Bug及其引出来的一系列Bug。加载图片 ...原创 2019-03-02 23:20:25 · 3408 阅读 · 5 评论 -
Tensorflow加载Vgg预训练模型
很多深度神经网络模型需要加载预训练过的Vgg参数,比如说:风格迁移、目标检测、图像标注等计算机视觉中常见的任务。那么到底如何加载Vgg模型呢?Vgg文件的参数到底有何意义呢?加载后的模型该如何使用呢?本文将以Vgg19为例子,详细说明Tensorflow如何加载Vgg预训练模型。实验环境GTX1050-ti, cuda9.0 Window10, Tensorflow 1.12...原创 2019-03-02 22:20:50 · 7111 阅读 · 2 评论 -
Tensorflow API 持续学习
本文希望以最精简的语言解释tensorflow API经常使用的小操作,将会持续更新;若有疑问或者错误,请在留言区指出。实验环境:Win10 tensorflow-gpu-1.12.0 GTX1050-titf.padt = tf.constant([[1, 2], [3, 4]])paddings = tf.constant([[2, 1], [1, 1]])a ...原创 2018-12-25 11:04:28 · 290 阅读 · 0 评论 -
CapsNet ——胶囊网络原理
在讲胶囊网络之前,首先我们回顾一下我们熟悉的CNN。CNN做了什么事情呢? 假设这里有一个卷积核(左图),除了曲线轨迹上的值很大,其他的值都是零,所以这个卷积核对旁边这种曲线(右图)就有很高的输出,也就是说对这种曲线有很高的识别,而对其他的曲线类型输出就低。所以比如图像分类中,一旦卷积核检测到了类似于眼睛啊、鼻子啊、嘴巴啊这种特征;从数学角度上说就,相关卷积核对鼻子原创 2018-01-31 14:14:38 · 60259 阅读 · 47 评论