深度学习
小cui童鞋
这个作者很懒,什么都没留下…
展开
-
深度学习笔记(2)------运行别人的caffe,以PoseNet为例
由于近期研究需要运行别人的caffe模型,这里就如何运行不同的caffe做出总结。一、为什么要安装不同的caffe在用CNN解决实际问题时,有些作者会根据自身的需要会定义一些自己的层来方便运算,而标准的caffe或者caffe-master中往往没有这些层的定义,这时就需要作者定制自己的caffe,如何想要跑他的网络,就需要重新编译他的caffe。比如,我这里想要运行的PoseNet, 作者定义了S原创 2017-10-13 10:41:19 · 4000 阅读 · 4 评论 -
深度学习笔记(1)------linux Ubuntu 14.04+Anaconda2+opencv 3.2.0+caffe-master配置
前言之前偷懒,计划用Matlab训练模型,后来正式写论文时发现别人的模型都是caffe训练的,还是老老实实回来学习正经的训练模型的方法。 工欲善其事必先利其器!废话不多说,我们先看如何配置环境1. Anaconda2 配置刚开始用Python训练模型时没有经验,import caffe时出现了各种缺失,安装这些包的时候又有各种问题,最后还是妥协用Anoconda吧,它集成了Python常用的科学计原创 2017-10-02 16:18:11 · 1846 阅读 · 0 评论 -
入坑GAN
前言上一篇文章投了之后,一直想试水深度学习,刚好由于研究需要接触到图像生成技术,以及当下最火的GAN。目前GAN有好多变种,但自己先学好这种Genarative Adversarial的思想,变种的理解就会很简单,也可以根据规律创建出自己的变种。这个笔记主要是整理台大Prof. 李宏毅的讲课视频,原链接在Generative Adversarial Network 好了,废话不多说,我们直接进...原创 2018-03-15 23:00:34 · 390 阅读 · 0 评论 -
GAN提高
2 简介:上一篇文章中详细介绍了GAN的来龙去脉,分析了GAN的主要贡献之一在于discriminator其实是一个J-S divergence,可以用来判断生成分布PG(z)P_{G(z)}与真实分布PdataP_{data}。上节最后提到了原生GAN有G弱D强、mode collapse的问题。这一节主要介绍,后来的研究如何解决这两个问题,以及介绍一些有趣的GAN的变种,如f-GAN, WGAN原创 2018-03-17 22:17:04 · 456 阅读 · 0 评论 -
pytorch学习笔记(1)—基本类型、运算和简单模型
pytorch学习这篇文章主要讲pytorch框架的学习笔记1.基本数据类型和基本运算1.1 张量python导入pytorch为: import torch 在torch中,常量通常表示成张量的类型(Tensor),与numpy中的array类似。创建一个5行3列的随机初始化张量矩阵为: x = torch.Tensor(5, 3)创建5行3列的[0,1]均匀分布的张量矩阵x = tor原创 2018-04-16 20:09:11 · 13354 阅读 · 3 评论 -
pytorch学习笔记(2)—构建数据类、图像预处理、读写模型
2. pytorch读数据可以numpy读数据,然后torch.from_numpy转化成torch数据。pytorch中提供了torchvision包可以读入常用的图像数据集CIFAR10,MNIST,也有针对于这些图像的简单变换。import torchvision.datasetsimport torch.utils.data.DataLoaderimport torchvi...原创 2018-04-16 20:10:57 · 3055 阅读 · 0 评论 -
生成对抗网络系列(0)——生成模型
1. 前言本小节算是GAN的预备篇,主要介绍目前几个主流的生成模型,以及他们各自的优势。现有的使用较多的生成模型主要有以下5个,他们的源代码如下:https://github.com/wiseodd/generative-models这里给出的代码主要是CPU实现。不太适合我们现在要处理的任务,基于他们的代码,我改编出了GPU版,目前只实现了AE、VAE和部分GAN,代码会持续更新中…...原创 2018-06-20 10:20:49 · 1733 阅读 · 0 评论