自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(28)
  • 收藏
  • 关注

转载 2021-01-02 拉普拉斯变换

拉普拉斯变换https://www.pianshen.com/article/7996366701/拉普拉斯矩阵https://www.pianshen.com/article/37581655593/深度拉普拉斯金子塔网络实现快速准确的超分辨率(LapSRN)https://www.pianshen.com/article/64621407288/...

2021-01-02 11:27:51 129

转载 2021-01-01 机器学习之正则化(Regularization)

本文转自:https://www.cnblogs.com/jianxinzhou/p/4083921.html1. The Problem of Overfitting1还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往右越平缓。因此线性回归并没有很好拟合训练数据。我们把此类情况称为欠拟合(und..

2021-01-01 14:42:44 171

转载 2021-01-01 机器学习-->期望风险、经验风险与结构风险之间的关系

在机器学习中,通常会遇到期望风险、经验风险和结构风险这三个概念,一直不知道这三个概念之间的具体区别和联系,今天来梳理一下:要区分这三个概念,首先要引入一个损失函数的概念。损失函数是期望风险、经验风险和结构风险的基础。损失函数是针对单个具体的样本而言的。表示的是模型预测的值与样本真实值之间的差距。比如对于某个样本<Xi,Yi>,其真实的值为Yi,而我们的模型选择决策函数为f,那么通过模型预测的值为f(Xi);损失函数就是用来表示Yi与f(Xi)之间的差距的,我们用函数L(f(Xi),Yi)

2021-01-01 13:55:12 163

转载 2021-01-01 高斯模糊的算法

本文转自:http://www.ruanyifeng.com/blog/2012/11/gaussian_blur.html通常,图像处理软件会提供"模糊"(blur)滤镜,使图片产生模糊的效果。"模糊"的算法有很多种,其中有一种叫做"高斯模糊"(Gaussian Blur)。它将正态分布(又名"高斯分布")用于图像处理。本文介绍"高斯模糊"的算法,你会看到这是一个非常简单易懂的算法。本质上,它是一种数据平滑技术(data smoothing),适用于多个场合,图像处理恰好提供了一个直.

2021-01-01 13:43:43 100

转载 2020-12-28 超分损失函数小结

超分损失函数小结原论文:Deep Learning for Image Super-resolution: A Survey1.Pixel Loss:用来度量生成图片和目标图片的像素级的差异1.1 L1 loss1.2 L2 loss1.3 Charbonnier loss:L1 Loss的变体,最后参数是一个很小常量(e.g., 1e − 3),为了使数值稳定像素损失是最常见的损失,通常L2损失能够对大的损失进行惩罚,但是在小的损失上无能为力,效果不如L1...

2020-12-28 13:53:03 483

转载 傅里叶分析之掐死教程(完整版)更新于2014.06.06

转自:傅里叶分析之掐死教程(完整版)更新于2014.06.06Heinrich · 9 个月前作 者:韩 昊知 乎:Heinrich微 博:@花生油工人知乎专栏:与时间无关的故事谨以此文献给大连海事大学的吴楠老师,柳晓鸣老师,王新年老师以及张晶泊老师。转载的同学请保留上面这句话,谢谢。如果还能保留文章来源就更感激不尽了。——更新于2014.6.6,想直接看更新的同学可以直接跳到第四章————我保证这篇文章和你以前看过的所有文章都不同,这是12年还在果壳的时候写的,但是当时没有来得及写完就出

2020-12-22 20:42:33 118

转载 2020-10-28 元学习(Meta Learning)与迁移学习(Transfer Learning)的区别联系是什么?

本文转自:https://www.zhihu.com/question/299020462/answer/653199202来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。迁移学习(Transfer Learning):就是指利用已经训练好的开源网络模型比如常见的VGG系列、Resnet系列、GoogleNet系列、MobileNet等,利用这些网络和其已经在其他大型数据集上训练好的权重参数,将自己的任务数据集在这些迁移过来的网络上进行训练或者微调。这里迁移是指迁移网络

2020-10-28 10:17:16 3269 1

转载 2020-10-20 理解计算机视觉中的损失函数

本文转自:https://blog.csdn.net/fengdu78/article/details/104890683理解计算机视觉中的损失函数作者:Sowmya Yellapragada 编译:ronghuaiyang导读损失函数在模型的性能中起着关键作用。选择正确的损失函数可以帮助你的模型学习如何将注意力集中在数据中的正确特征集合上,从而获得最优和更快的收敛。计算机视觉是计算机科学的一个领域,主要研究从数字图像中自动提取信息。在过去的十年中,在深度学习方面的创新...

2020-10-20 16:17:38 646

转载 2020-10-20 超分损失函数小结

原论文:Deep Learning for Image Super-resolution: A Survey超分损失函数小结1.Pixel Loss:用来度量生成图片和目标图片的像素级的差异1.1 L1 loss1.2 L2 loss1.3 Charbonnier loss:L1 Loss的变体,最后参数是一个很小常量(e.g., 1e − 3),为了使数值稳定像素损失是最常见的损失,通常L2损失能够对大的损失进行惩罚,但是在小的损失上无能为力,效果不如L1...

2020-10-20 15:27:21 1611

转载 2020-10-18 从SRCNN到EDSR,总结深度学习端到端超分辨率方法发展历程

本文转自:https://blog.csdn.net/aBlueMouse/article/details/78710553超分辨率技术(Super-Resolution, SR)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的应用价值。本文针对端到端的基于深度学习的单张图像超分辨率方法(Single Image Super-Resolution, SISR),总结一下从SRCNN到EDSR的发展历程。(排列顺序大致按论文中给出的4倍上采样结果的峰值

2020-10-18 22:01:24 531

转载 2020-10-18 SRGAN文章翻译

本文转自:https://blog.csdn.net/weixin_42113955/article/details/89001989摘要: 尽管使用更快更深的卷积神经网络在单图像超分辨率的准确性和速度方面取得了突破,但一个核心问题仍然很大程度上未解决:当我们在大的升级因子上超分辨时,我们如何恢复更精细的纹理细节?基于优化的超分辨率方法的行为主要由目标函数的选择驱动。近期工作主要集中在最小化均方重建误差。由此产生的估计具有高峰值信噪比,但它们通常缺乏高频细节,并且在感知上它们不能满足在较高...

2020-10-18 21:45:40 1505

转载 2020-10-18 GAN 网络

本文转自:https://www.zhihu.com/question/63493495/answer/212218657其实 GAN 网络的巧妙在于其设计思维,而技术上是对现有算法的组合,没什么神秘的。既然题主对其大致意思已经了解了,那我就举一个构建实例。GAN 网络主要由两个网络合成。生成网络:输入为随机数,输出为生成数据。比如说,输入一个一维随机数,输出一张 28x28 (784 维) 的图片 (MNIST)。网络实现用最 vanilla 的多层神经网络即可。记得不宜超过三层,否则梯度

2020-10-18 21:20:21 627

转载 2020-10-18 我是这样学习 GAN 的

本文转自:https://zhuanlan.zhihu.com/p/27295635Generative Adversarial Network,就是大家耳熟能详的 GAN,由 Ian Goodfellow 首先提出,在这两年更是深度学习中最热门的东西,仿佛什么东西都能由 GAN 做出来。我最近刚入门 GAN,看了些资料,做一些笔记。1.Generation什么是生成(generation)?就是模型通过学习一些数据,然后生成类似的数据。让机器看一些动物图片,然后自己来产生动物的图片,这就是生成

2020-10-18 19:27:32 108

转载 2020-10-18 三、相对熵(KL散度)

本文转自:https://blog.csdn.net/weixinhum/article/details/85064685我们简单介绍了信息熵的概念,知道了信息熵可以表达数据的信息量大小,是信息处理一个非常重要的概念。对于离散型随机变量,信息熵公式如下:H ( p ) = H ( X ) = E x ∼ p ( x ) [ − log ⁡ p ( x ) ] = − ∑ i = 1 n p ( x ) log ⁡ p ( x ) H ( p ) = H ( X ) = \mathrm { E }

2020-10-18 19:22:29 205

转载 2020-10-18 二、熵的定义

本文转自:https://zhuanlan.zhihu.com/p/397069101: 熵的定义假设离散随机变量,它的p.m.f是。我们定义的熵是:引理:证明,即均匀分布熵最大。利用拉格朗日乘子法证明:由拉格朗日计算可以可到:,得到极值为。2: 联合熵和条件熵定义(联合熵):定义(条件熵):假如,则条件熵是:定理(链式规则):证明:推广:注意:熵只依赖于随机变量的分布,与随机变量取值无关。...

2020-10-18 19:15:45 681

转载 一、什么是信息量

一、什么是信息量信息量信息量信息是不是可以量化?起码直觉上而言是可以的,不然怎么可能我们觉得有些人说的废话特别多,“没什么信息量”,有些人一语中的,一句话就传达了很大的信息量。为什么有的信息量大有的信息量小?有些事情本来不是很确定,例如明天股票是涨还是跌。如果你告诉我明天NBA决赛开始了,这两者似乎没啥关系啊,所以你的信息对明天股票是涨是跌带来的信息量很少。但是假如NBA决赛一开始,大家都不关注股票了没人坐庄股票有99%的概率会跌,那你这句话信息量就很大,因为本来不确定的事情变得十分确定。而有些事

2020-10-18 19:13:26 5730 2

转载 2020-10-18 似然(likelihood)和概率(probability)的区别与联系

本文转自:https://blog.csdn.net/songyu0120/article/details/85059149虽然经常在paper和教程中看到“似然(likelihood)”的概念,但是一直都没有仔细研究似然与概率的区别,今天查了一些资料,有些收获,在此总结一下。似然与概率的区别简单来讲,似然与概率分别是针对不同内容的估计和近似。概率(密度)表达给定θ \thetaθ下样本随机向量X = x \textbf{X} = {x}X=x的可能性,而似然表达了给定样本X = x \text

2020-10-18 18:32:44 600

转载 2020-10-17 理解图像中的高频、低频分量

图像的频率(1)定义:该图像灰度值变化剧烈程度的指标,是灰度在平面空间上的梯度。(2)低频: 低频就是颜色缓慢地变化,也就是灰度缓慢地变化,就代表着那是连续渐变的一块区域,这部分就是低频. 对于一幅图像来说,除去高频的就是低频了,也就是边缘以内的内容为低频,而边缘内的内容就是图像的大部分信息,即图像的大致概貌和轮廓,是图像的近似信息。低频信息(低频分量):表示图像中灰度值变化缓慢的区域,对应着图像中大块平坦的区域低频分量主要对整幅图像强度的综合度量。(3)高频: ...

2020-10-17 19:43:15 3394

转载 2020-10-17 对残差网络ResNet的理解

本文转自:https://blog.csdn.net/pestzhang/article/details/80109330我没有看原文,近期准备好好看一下:Deep Residual Learning for Image Recognition本文转自:https://blog.csdn.net/pestzhang/article/details/80109330附上论文详细解读对ResNet的理解主要来自吴恩达的课件、CNN入门讲解:什么是残差网络Resnet(视频)以及CSDN上相关资料

2020-10-17 19:31:24 239

转载 2020-10-15 看完还不懂卷积神经网络“感受野”?那你来找我

如何理解卷积神经网络中的1*1卷积本文转自:https://blog.csdn.net/chaipp0607/article/details/60868689收起我们都知道,卷积核的作用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感受野,当然随之而来的是更多的参数。早在1998年,LeCun大神发布的LetNet-5模型中就会出,图像空域内具有局部相关性,卷积的过程是对局部相关性的一种抽取。但是在学习卷积神经网络的过程中,我们常常会看到一股清流般的存在—1*1的卷积!比如在残差网络的.

2020-10-17 17:44:45 279

转载 2020-10-15 1*1卷积核的作用(CNN卷积网络)---很好的介绍

深度学习中1*1卷积核作用看图理解!  以上是用一个773的数组作为输入,然后神经元中卷积核大小为333,数量为2,输出的特征图大小为332卷积:一组固定的权重和不同窗口内数据做内积卷积的计算—>  每次选取输入数据一层的一个窗口然后和对应深度层的神经元的卷积核进行矩阵内积计算,最后将所有的计算结果与偏置项b相加后输出  !卷积计算时可以有多个神经元,神经元的个数对应卷积层的输出深度,卷积层的输入深度和输出深度不一定一致  !卷积层神经元的深度和输入数据的深度一致  !

2020-10-15 16:49:07 775

转载 2020-10-15 YJango的卷积神经网络——介绍

YJango的卷积神经网络——介绍本文转自:https://zhuanlan.zhihu.com/p/27642620YJango​机器学习等 3 个话题下的优秀回答者1,084 人赞同了该文章如果要提出一个新的神经网络结构,首先就需要引入像循环神经网络中“时间共享”这样的先验知识,降低学习所需要的训练数据需求量。 而卷积神经网络同样也引入了这样的先验知识:“空间共享”。下面就让我们以画面识别作为切入点,看看该先验知识是如何被引入到神经网络中的。目录视觉感...

2020-10-15 15:47:51 396

转载 2020-10-15【AI不惑境】网络深度对深度学习模型性能有什么影响?

【AI不惑境】网络深度对深度学习模型性能有什么影响?本文转自:https://zhuanlan.zhihu.com/p/63560913原创言有三有三AI2019-04-24收录于话题#有三AI修行之路40个大家好,这是专栏《AI不惑境》的第二篇文章,讲述模型深度与模型性能的关系。进入到不惑境界,就是向高手迈进的开始了,在这个境界需要自己独立思考。如果说学习是一个从模仿,到追随,到创造的过程,那么到这个阶段,应该跃过了模仿和追随的阶段,进入了创造的阶段。从这个境界开始...

2020-10-15 15:01:34 173

转载 2020-10-15 【AI不惑境】网络宽度对模型性能有什么影响?

【AI不惑境】网络宽度对模型性能有什么影响?本文转自:https://zhuanlan.zhihu.com/p/64219398公众号《有三AI》号主,书籍作者,AI/摄影/羽毛球/电影47 人赞同了该文章大家好,这是专栏《AI不惑境》的第三篇文章,讲述模型宽度与模型性能的关系。进入到不惑境界,就是向高手迈进的开始了,在这个境界需要自己独立思考。如果说学习是一个从模仿,到追随,到创造的过程,那么到这个阶段,应该跃过了模仿和追随的阶段,进入了创造的阶段。从这个境界开始,讲述的问题可能不..

2020-10-15 14:52:06 165

转载 2020-10-15 Network In Network——卷积神经网络的革新

Network In Network——卷积神经网络的革新原文:https://www.cnblogs.com/yinheyi/p/6978223.htmlNetwork In Network 是13年的一篇paper引用:Lin M, Chen Q, Yan S. Network in network[J]. arXiv preprint arXiv:1312.4400, 2013.文章的新点:1. 采用 mlpcon 的结构来代替 traditional 卷积层;..

2020-10-15 11:24:56 134

转载 2020-10-14 一文搞懂反卷积,转置卷积

一文搞懂反卷积,转置卷积本文转自:https://blog.csdn.net/LoseInVain/article/details/81098502?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMach

2020-10-14 21:50:39 422

转载 2020-10-14 Deconvolution and Checkerboard Artifacts

Deconvolution and Checkerboard ArtifactsAUGUSTUS ODENAGoogle BrainVINCENT DUMOULINUniversité de MontréalCHRIS OLAHGoogle BrainOct. 172016Citation:Odena, et al., 2016When we look very closely at images generated by neural network...

2020-10-14 21:49:40 422

转载 基于深度学习的图像超分辨率重建

版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/gwplovekimi/article/details/83041627 最近开展图像超分辨率(Image Super Resolution)方面的研究,做了一些列的调研,并结合本人的理解总结成本博文~(本博文仅用于本人的学习笔记,不做商业用途)本博文涉及的paper已经打包,供各位看客下载哈~https://download...

2020-10-14 21:46:28 4498 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除