自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 论文阅读:Unsupervised Diverse Colorization via Generative Adversarial Networks

论文阅读:Unsupervised Diverse Colorization via Generative Adversarial Networks这是一篇使用改进的Conditional GAN 来进行图像上色任务的论文,在多层中使用输入的灰度图像(GrayScale)作为条件信息对GAN的生成进行指导保证上色效果的真实性(reality), 同时在生成器的所有层中加入随机的噪声信息保证上色结果的颜色多样性(diversity)。1、动机​ 作者提到, 以往的自动上色方法,无论是非参数式

2020-11-26 22:29:01 822

原创 论文笔记:Let there be color!

论文笔记:Let there be color!文章目录论文笔记:Let there be color!1、引言2、架构3、实验结果与讨论3.1 用户调研3.2 通过全局特征来进行风格迁移3.3 颜色空间的对比4、缺陷与讨论5、思考6、Reference​ 这是我阅读的图像上色相关的第二篇论文,这篇文章的核心在于通过结合图像的全局与局部先验进行端到端的训练,实现同步分类的图像自动着色。1、引言​ 本文基于CNN 提出了一种完全自动化的数据驱动的灰度图像着色方法。该方法利用从整幅

2020-11-26 22:15:05 503

原创 论文笔记:Deep Colorization

论文笔记:Deep Colorization文章目录论文笔记:Deep Colorization1、本文的贡献2、框架3、特征描述符4、实验结果5、局限性6、思考7、参考​ 最近在关注图像上色(Image colorization)领域,这是一篇ICCV-2015的关于图像上色的文章,文章较老,但是作为一篇将深度学习引入图像上色的文章,仍旧值得学习。1、本文的贡献基于深度学习技术在大型数据集上的建模能力,提出了一个高质量的全自动上色方法。实验证明,本文提出的方法在图像生成质量与速度上

2020-11-26 21:59:52 925

原创 论文阅读:Fully Convolutional Networks for Semantic Segmentation

论文阅读:Fully Convolutional Networks for Semantic Segmentation这篇文章是关于将全卷积网络端到端(End-to-End)地训练,并将其用于语义分割。摘要​ 作者提出了使用全卷积神经网络来接受任意大小的输入,并产生与之相匹配的输出,这样的一个网络在训练和推理的环节效率都很高。作者将这样的密集预测网络与之前的典型的卷积神经网络进行联系,将这些模型的优秀表征能力迁移到语义分割任务中来。进一步地,作者提出了一种用于语义分割的新架构,它可以将网

2020-11-08 11:13:24 1033 1

原创 剑指Offer11 二进制中1的个数

剑指Offer11 二进制中1的个数题意输入一个整数,输出该数32位二进制表示中1的个数。其中负数用补码表示。思路做这个题目时,发现自己对计算机中补码反码原码的理解不够深入,这里再复习一下:在计算机中,所有的数值都是以其补码表示的,因为用补码可以将两个数的剑法转化为加法,方便加法器工作。对于正数,其源码、补码、反码都是一致的(除此之外还有移码,就是将补码的符号位取反),一般以最高位作为符号位,正数的符号位为0,负数为1,则例如32位(4字节)的有符号整型数,第一位是符号位,低位的31位是数值位,

2020-10-16 15:46:28 68

原创 剑指Offer10 矩阵覆盖

剑指Offer10 矩阵覆盖题意我们可以用2x1的小矩形横着或者竖着去覆盖更大的矩形。请问用n个2x1的小矩形无重叠地覆盖一个2*n的大矩形,总共有多少种方法?比如n=3时,2*3的矩形块有3种覆盖方法:思路我们可以使用的小矩形的为2x1, 需要覆盖的面积为为2*n, 则递归地看,只有两种情况,一种是先固定一块,剩下n-1块,其覆盖方法为f(n-1),如a所示,固定两块(并列),剩下n-2块,其覆盖方法为f(n-2),如b所示:则对于覆盖长度为n的块有:f(n) = f(n-1) + f(n

2020-10-16 15:45:26 88

原创 剑指Offer09 变态跳台阶

剑指Offer09 变态跳台阶题意一只青蛙一次可以跳上1级台阶,也可以跳上2级……它也可以跳上n级。求该青蛙跳上一个n级的台阶总共有多少种跳法。思路和之前跳台阶的方式不一样,这次可以跳任意阶数(1,2,3,…,n),则可以做如下分析:可以先选择跳1阶,那么剩下的n-1阶共有f(n-1)种跳法。。可以选择先跳2阶,那么剩下的n-2有f(n-2)种跳法。。以此类推。。。先跳n-2阶, 后面有f(2)种跳法先跳n-1阶, 后面有f(1)种跳法先跳n阶, 只有一种跳法f(0) 种跳法所以:

2020-10-16 15:42:30 74

原创 论文阅读:Rethinking the Inception Architecture for Computer Vision

论文阅读:Rethinking the Inception Architecture for Computer Vision这篇论文是Inception 结构的一次改进,作者Christian Szegedy基于Inception提出了进一步提升卷积网络性能的几点原则,并结合实验对所提出的几点原则进行论证,进而提出了Inception-v2以及Inception-v3。摘要作者提到虽然扩大模型,增加计算能力可以在数据集充分的情况下提升卷积网络模型的性能,但是对于移动端的视觉任务以及大数据的任务场景来说

2020-10-16 15:38:56 3973 2

原创 论文阅读: Going deeper with convolutions

论文阅读: Going deeper with convolutions这是关于ILSVRC2014的优胜者GoogleNet的论文,论文详细地讲解了这个模型的核心模块**”Inception"**结构是如何提出的,实际上对于作者说的”稀疏性“,实在是没有理解。由此先写下自己理解的部分。1、摘要作者提出了一种”Inception“的结构来提升深度卷积神经网络的性能,并在ILSVRC2014中获得了成功。该结构的主要特点是提高了网络内部的计算效率(关于这一点,其实并不是十分理解)。Inception的设

2020-10-11 12:13:26 709 1

原创 剑指Offer08 跳台阶

剑指Offer08 跳台阶题意一只青蛙一次可以跳上1级台阶,也可以跳上2级。求该青蛙跳上一个n级的台阶总共有多少种跳法(先后次序不同算不同的结果)。思路因为只有跳1阶或2阶的跳法,所以可以尝试用递归方法,递归方法有两个重要的点要注意:递归边界:即什么时候结束递归,对于此题,很明显就是J[1] = 1, J[2] = 2;递归链条:即寻找后面的元素与前面元素的关系。这个题目实质上就是一个从1,2开始的斐波那契数列,但自己一开始意识到这个问题,我的思考过程如下:根据递归,我可以跳至n-1

2020-10-08 12:20:44 52

原创 剑指Offer07 斐波那契数列

剑指Offer07: 斐波那契数列题意大家都知道斐波那契数列,现在要求输入一个整数n,请你输出斐波那契数列的第n项(从0开始,第0项为0,第1项是1)。n<=39思路递归求解:超时打表求解:内存超限综合前两者,其实只需要一个长度为3的数组,然后根据下标模3运算得到当前index, 再求得前两位的index,相加更新当前位置即可。代码class Solution {public: int Fibonacci(int n) { int F[3] = {0,1,

2020-10-08 11:11:21 67

原创 剑指Offer06 旋转数组的最小数字

剑指Offer06: 旋转数组的最小数字题意把一个数组最开始的若干个元素搬到数组的末尾,我们称之为数组的旋转。输入一个非递减排序的数组的一个旋转,输出旋转数组的最小元素。例如数组[3,4,5,1,2]为[1,2,3,4,5]的一个旋转,该数组的最小值为1。NOTE:给出的所有元素都大于0,若数组大小为0,请返回0。思路根据旋转数组的定义,其实旋转数组实质上就是两个非递减的序列组合而成,前一个序列不小于后一个序列,因此寻找旋转数组中的最小值就是寻找两个序列的分界点,即出现array[i+1] &lt

2020-10-08 11:10:49 55

原创 剑指Offer05 用两个栈实现一个队列

剑指Offer05 用两个栈实现一个队列题目描述用两个栈来实现一个队列,完成队列的Push和Pop操作。 队列中的元素为int类型。思路对于使用的两个队列,一个用以做插入操作,即push, 另一个用以做删除操作。在没有pop操作时,可以一直向stack1中压栈,而stack1中反序就是队列的顺序,当有pop(出队)操作时,再判断stack2是否为空, 不为空直接出栈,若为空则将stack1中的元素逐个出栈并压入stack2。代码class Solution{public: void

2020-10-08 11:09:23 59

原创 剑指Offer04 —重建二叉树

剑指Offer04 —重建二叉树题目描述输入某二叉树的前序遍历和中序遍历的结果,请重建出该二叉树。假设输入的前序遍历和中序遍历的结果中都不含重复的数字。例如输入前序遍历序列{1,2,4,7,3,5,6,8}和中序遍历序列{4,7,2,1,5,3,8,6},则重建二叉树并返回。思路二叉树有先序,中序,后序、层次等几个常见的遍历次序,值得注意的是,中序遍历与其他三种遍历中的任何一种结合,均可以唯一地确认一棵二叉树。原因在于可以通过先序、后序或者层次遍历区分出原二叉树(包括二叉树的子树)的根结点,通过该根

2020-10-08 11:07:55 63

原创 剑指Offer01 二维数组中的查找

剑指Offer01: 二维数组中的查找题意在一个二维数组中(每个一维数组的长度相同),每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否含有该整数。思路因为二维数组中的元素从左到右递增,从上到下也递增,所以可以从左下角或者右上角开始搜索,从左下角开始搜索时,若当前元素大于目标元素,则向右走一步,若小于,则往上走一步。代码class Solution {public: bool Find(int tar

2020-10-08 11:05:31 52

原创 Pytorch03: 使用预训练模型训练 Kaggle: Dogs vs Cats

Pytorch使用预训练模型训练 Kaggle: Dogs vs Cats1、Pytorch加载数据集​ pytorch 的torchvision中继承了常用的数据集,可以直接在torchvision.datasets中调用,当我们想要加载自己的数据集来训练模型时,需要借助torchvision.datasets.ImageFolder这个类,在当前的Pytorch版本中, ImageFolder继承自DatasetFolder官方源码​ 我们可以直接使用ImageFold

2020-10-07 16:08:54 720

原创 Pytorch笔记02:构建神经网络—以CIFA-10数据集分类为例

Pytorch笔记02:构建神经网络—以CIFA-10数据集分类为例1、pytorch加载内置数据集在Pytorch的torchvision中集成了很多常用的数据集,例如MNIST、CIFA-10、COCO等,使用的方法就是在torchvision.dataset内直接使用,如torchvision.datasets.cifa10(),一般加载数据集有这样几个参数:root(str): 表示数据集文件的路径train(bool): 如果是True表示从train set中创建,否则从test se

2020-10-07 16:04:57 616

原创 Pytorch笔记01:随机数种子的设置 VS zero_grad()

Pytorch 笔记01Pytorch中随机数种子的设置​ 为了模型结果可复现,常常需要为程序设置随机数种子(seed),在使用Pytorch进行模型训练时,有以下几个部分可以设置随机种子。1、cudnnfrom torch.backends import cudnncudnn.benchmark = False cudnn.deterministic = True2、Pytorchimport torchseed = 121torch.manual_seed(seed)

2020-10-07 15:59:36 463

原创 论文阅读:VGGNet—Very Deep Convolutional Networks For Large-Scale Image Recognition

论文阅读:VGGNet—Very Deep Convolutional Networks For Large-Scale Image Recognition1、摘要​ 在这篇论文中,作者对卷积神经网络的深度对于其在大规模图像数据集的识别的准确性做了一个完全的评估,特点在于将CNN的网络深度提升到了16-19层,提升了大规模图像的识别准确性;同时有证明了VGG在深度视觉表征中具有较强的泛化能力。2、引言​ 引言部分作者总结了自AlexNet以来CNN在大规模图像识别中的广泛应用,

2020-10-01 12:43:32 751

原创 论文阅读:ImageNet Classifification with Deep Convolutional Neural Networks

论文阅读:ImageNet Classifification with Deep Convolutional Neural Networks1.背景与意义​ 大规模现实图像数据集的识别与分类是一个巨大的挑战,一方面,模型的学习能力需要进一步提升;另一方面,带标签的现实图像数据集依旧难以获取,尽管用于ILSVRC竞赛的ImageNet数据集图像数量巨大,种类繁多,但是在极为复杂的模型下也不免会产生过拟合(overfiting)的问题。​ 这篇文章提出了用于大型图像数据集分类的

2020-09-27 10:45:40 381

原创 最小生成树算法——Prim & Kruskal个人总结

最小生成树算法——Prim & Kruskal总结与代码实例Prim算法    Prim算法的思想是:对于原始图G(V,E),建立一个集合S,从图的某个顶点开始(顶点可以是指定顶点,也可以是随机的顶点),逐步从点集V-S中选择到S中顶点距离最小的顶点加入S,并把该条最短路径加入最小生成树。在实现的过程中,Prim算法与求解单源最短路径算法Dijkstra算法几乎一致,唯一不同之处在于最短距离数组d[MAXN]的含义与处理方式。下面给出邻接矩阵版的pri

2020-09-27 10:23:20 1397

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除