深度学习
文章平均质量分 85
Deephome
know yourself, know the world.
展开
-
[论文笔记] Learning Parallax Attention for Stereo Image Super-Resolution (CVPR2019)
1. 简介本文出自国防科大,提出了一个立体图像超分辨率重建的方法,主要创新点是基于视差的注意力机制 parallax attention,来建模立体图像的对应关系。另外,采用Residual ASPP 提取丰富的上下文特征,这种大感受野和多尺度的特征学习可以提取更有辨别力的特征。首先分别提取两图像特征,然后PAM计算相似性和对齐,最后聚合特征,生成SR。2. 方法2.1 视差注意力 pa...原创 2019-04-11 22:10:46 · 3703 阅读 · 0 评论 -
[论文笔记]Unsupervised Domain-Specific Deblurring via Disentangled Representations(CVPR2019)
1. 简介文章提出了一种基于解缠表示的无监督域特定图像去模糊方法,通过将模糊图像中的内容和模糊特征解开,以将模糊信息准确地编码到去模糊框架中。2. 方法2.1网络结构:2.2 损失函数1)对模糊编码的隐空间进行约束,参考VAE, p(z)∼N(0,1),KL 散度2)GAN的对抗损失,两个Generator有各自对应的损失函数,以GsG_sGs为例3)循环一致损失,参考Cy...原创 2019-04-01 15:56:16 · 2182 阅读 · 1 评论 -
[论文笔记]Meta-SR: A Magnification-Arbitrary Network for Super-Resolution(CVPR2019)
在本文中,旷视研究院提出一种全新方法,称之为 Meta-SR,首次通过单一模型解决了超分辨率的任意缩放因子问题(包括非整数因子)。Meta-SR 包含一种新的模块——Meta-Upscale Module,以代替传统的放大模块(upscale module)。Meta-SR利用采样核动态上采样,由于SR尺度不一,所以针对不同的分辨率需要特定的采样参数,这些采样参数又Meta upscale m...原创 2019-04-01 16:28:56 · 943 阅读 · 0 评论 -
[论文笔记] Image Super-Resolution by Neural Texture Transfer (CVPR2019)
题目:Image Super-Resolution by Neural Texture Transfer代码:https://github.com/ZZUTK/SRNTT会议:CVPR 20191. 简介本文是Adobe发表在CVPR2019的基于参考图像的图像超分辨率重建论文,本文借鉴图像风格化 (image stylization)中神经纹理迁移(Neural Texture Tran...原创 2019-03-23 10:41:03 · 7004 阅读 · 7 评论 -
Cafffe入门-win7上训练自己的数据和微调
1.准备数据使用dog/cat数据集,在训练项目根目录下分别建立train和val文件夹,作为训练数据和验证数据的保存位置。train和val文件夹下各有两个文件夹:dogs和cats,分别保存dog和cat的图片。dog和cat分别有1000张训练图像和400张测试图像。写一个python脚本文件,遍历train和val两个文件夹,分别生成train.txt和val.txt,其中保存图片的相对路径原创 2017-04-24 11:35:26 · 1147 阅读 · 1 评论 -
GoogLeNet笔记
1.介绍GoogLet是ILSVRC-2014分类任务和目标检测任务的冠军,又称为Inception-v1,有22层。在增加网络深度和宽度的同时,能够保持计算预算恒定。2.NiN自从LeNet以来,卷积神经网络有个主流的结构是一系列卷积层(+normalization/max-pooling)和全连接层,这样的结构在MNIST和Cifar等数据集上取得了很好的结果。对于像Imagenet这样的大数据原创 2017-04-07 21:00:50 · 709 阅读 · 0 评论 -
TensorFlow入门-MNIST & CNN
参考TensorFLow官方教程Deep MNIST for Experts实现用CNN识别手写数字,数据集MNIST。# load MNIST datafrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("Mnist_data/", one_hot=True)#原创 2017-03-10 17:26:08 · 8433 阅读 · 2 评论 -
TensorFlow入门-Inception(v3)图像识别
Inception-v3是最新的一个模型,在ImageNet-2012上训练进行分类。与其他网络对比AlexNet achieved by setting a top-5 error rate of 15.3% on the 2012 validation data set; BN-Inception-v2 achieved 6.66%; Inception-v3 reaches 3.46%.原创 2017-03-20 14:13:32 · 19878 阅读 · 3 评论 -
TensorFlow入门-CIFAR10&CNN
1. 综述CIFAR-10是机器学习分类问题中的一个标尺问题。目标是将RGB 32*32的图像分成10类:飞机(airplane),汽车(automobile),鸟(bird),猫(cat),鹿(deer),狗(dog),青蛙(frog),马(horse),船(ship),卡车(truck)。2. 目标建立一个相对小的卷积神经网络分类图像。在这个过程中, 1. 强调了网络结构、训练和评估的规范组织原创 2017-03-20 13:23:31 · 8637 阅读 · 2 评论 -
TensorFlow入门-MNIST & softmax regression
环境:win7 64位 Anaconda(python3.5)-TensorFlow安装好TensorFlow后,参考TenforFlow官方教程开始学习。此文为使用MNIST数字集训练softmax regression,实现数字识别。1. MNIST简介MNIST放在Yann LeCun的网站上。每张图像是28*28,将图像拉伸成一维的,就是有28*28=784的数字的向量。将图像拉伸成一维的,原创 2017-03-09 10:13:10 · 1019 阅读 · 0 评论 -
VGGNet笔记
1. 简介VGGNet由牛津大学的视觉几何组(Visual Geometry Group)提出,是ILSVRC-2014中定位任务第一名和分类任务第二名。其突出贡献在于证明使用很小的卷积(3*3),增加网络深度可以有效提升模型的效果,而且VGGNet对其他数据集具有很好的泛化能力。如今,卷积神经网络已经成为计算机视觉领域的常用工具,所以有很多人尝试改善2012年提出的AlexNet来实现更好的效果。翻译 2017-03-18 20:06:30 · 47764 阅读 · 1 评论 -
win7 64bit 安装TensorFlow
1.安装AnacondaTensorFlow在windows环境下,只支持Python3.5。所以安装的是Anaconda3-4.2.0-Windows-x86_64。下载地址[https://repo.continuum.io/archive/index.html]2.安装CUDA和cuDNNTensorFlow有CPU-only版本和GPU版本,为了试试GPU加速的感觉,选择GPU版的了,但是要原创 2017-03-02 19:48:42 · 571 阅读 · 0 评论 -
AlexNet笔记
1. 简介AlexNet是Hinton小组在ISVRC2012中使用的神经网络模型,并获得了第一名,top5测试错误率是15.3%,第二名是26.2%。AlexNet有60M个参数,650,000个神经元,5个卷积层和3个全连接层(1000类的softmax分类器)。AlexNet模型在两个GTX 580 3GB GPU上训练5、6天左右,如果有更大的数据集和更高效GPU出现,结果还会更好。 贡翻译 2017-02-19 22:08:40 · 10046 阅读 · 2 评论