超分辨率重建
文章平均质量分 54
小白在成长
努力学习,不懂得东西太多。
展开
-
超分辨率重建——关于正则化的一些知识
百度百科中关于正则化是这样子解释的,正则化(regularization),是指在线性代数理论中,不适定问题通常是由一组线性代数方程定义的,而且这组方程组通常来源于有着很大的条件数的不适定反问题。大条件数意味着舍入误差或其它误差会严重地影响问题的结果。那么这时候有这么几个问题,什么是不适定问题,什么是反问题,什么是条件数。反问题比较好理解,最普遍的就是一只系统的输出求输入。拿降质模型来说X原创 2016-10-25 15:49:10 · 3630 阅读 · 0 评论 -
回归问题的解释
转自http://blog.csdn.net/vshuang/article/details/55128531. 问题描述:给定多个自变量、一个因变量以及代表它们之间关系的一些训练样本,如何来确定它们的关系? 2. 数学描述建模:目的就是求这个因变量关于这多个自变量的函数。而这个函数能够比较精确的表示这个因变量和这多个自变量之间的关系。 3. 问题深入转载 2016-12-20 17:28:54 · 6796 阅读 · 0 评论 -
超分辨率重建中的图像金字塔——高斯金字塔和拉普拉斯金字塔
在超分辨率重建方法中,经常会提到图像金子塔这个词,然后根据图像在多尺度间的一些特性,进行相关处理。而这个图像金子塔是什么呢?常见的图像金子塔有两种,高斯金子塔和拉普拉斯金字塔。高斯金字塔:高斯金字塔是由上向下的,如给定一幅输入图像,通过连续的模糊和下采样,可以得到改图像的一组低分辨率图像集合,假设取六层金字塔,原图像为I0,最小的图像为I5,那么高斯金字塔就是从I0~I5这六幅图像组层原创 2017-01-13 14:42:27 · 3022 阅读 · 0 评论 -
Gabor滤波
转载自http://blog.163.com/huai_jing@126/blog/static/171861983201172091718341/1. 简介 Gabor变换属于加窗傅立叶变换,Gabor函数可以在频域不同尺度、不同方向上提取相关的特征。Gabor 滤波器的频率和方向类似于人类的视觉系统,所以常用于纹理识别。在空间域,二维Gabor滤转载 2017-01-13 16:37:10 · 1188 阅读 · 1 评论 -
关于超参数
转自点击打开链接http://blog.csdn.net/xiewenbo/article/details/51585054当参数时随机变量时,该参数分布中的参数就是超参数,简单的说就是参数的参数,感觉一般在贝叶斯方法中出现所谓超参数,就是机器学习模型里面的框架参数,比如聚类方法里面类的个数,或者话题模型里面话题的个数等等,都称为超参数。转载 2017-02-05 16:01:39 · 1428 阅读 · 0 评论 -
超分辨率重建——梯度下降、坐标下降、牛顿迭代
在阅读相关文献的时候,经常会遇到梯度下降,坐标下降,牛顿迭代这样的术语,今天把他们的概念整理一下。梯度下降 整理自百度梯度下降法是一个最优化算法,通常也称为最速下降法。顾名思义,梯度下降法的计算过程就是沿梯度下降的方向求解极小值(也可以沿梯度上升方向求解极大值)。其迭代公式为 ,其中 代表梯度负方向, 表示梯度方向上的搜索步长。梯度原创 2017-02-06 09:11:43 · 1578 阅读 · 0 评论 -
超分辨率重建——过完备字典
在基于稀疏表示的超分辨率重建方法中,经常会提到一个词,叫做过完备字典,那么什么是过完备字典呢?稀疏表示理论的核心在于y=Da,其中y是一个真实的信号,D是一个过完备字典,a是其稀疏表示。假设y是n行1列的矩阵,D为n*k的矩阵,其中k>n,a为k行1列的矩阵,并且a为一极小的非0向量,及a中的大多数元素都是0.我们称D为过完备字典,及信号y可以在过完备字典下,稀疏表示为a。明显的D为n行k原创 2017-02-07 09:51:24 · 6244 阅读 · 1 评论 -
超分辨率重建——长尾分布
最近读到个词叫长尾分布,云里雾里的,后来查了一下,“长尾”实际上是统计学中幂律(Power Laws)和帕累托分布(Pareto distributions)特征的一个口语化表达。那么问题就变成了什么是幂律和帕累托分布了。所谓的幂律,及统计得到的信息满足幂函数的形式分布,及y=cx^-r,其图线如下:这类分布有着长长的尾巴,及长尾分布,长尾分布符合实际生活中的一些情况,所以原创 2017-01-16 10:36:04 · 2226 阅读 · 0 评论 -
超分辨率重重建——流形学习
在阅读超分辨率重建相关文献的时候,经常会见到流形学习这么个词,今天整理了一下以下内容摘自百度:http://baike.baidu.com/link?url=bt9Cv9MtYOgqGcTcT7ZJp19ezCOj-eNVVIZOru18VlkuM4Yo9jE3Tmx_NpRFJUruoxBj-5A33_Y3qviRaLaKrnWt_UJd2W0vy-c4ifvuan3CDSAHQrB9NxT转载 2017-02-10 16:00:26 · 2093 阅读 · 0 评论 -
线性规划问题和MATLAB函数linprog的使用
转自:http://blog.csdn.net/jbb0523/article/details/50596555题目:线性规划问题和MATLAB函数linprog的使用 线性规划(Linear Programming, LP)问题的一般形式为:其中。矩阵向量形式为其中, , 线线规划的几个基本性质:【转载 2017-02-20 14:47:16 · 2871 阅读 · 1 评论 -
关于矩阵的归一化
最近在看Yang大牛稀疏表示论文的代码,发现里面很多的操作的用到了矩阵的列归一化,这里谈一谈列归一化的实现,以及其带来的好处。矩阵的列归一化,就是将矩阵每一列的值,除以每一列所有元素平方和的绝对值,这样做的结果就是,矩阵每一列元素的平方和为1了。举个例子,矩阵[1,2,3]',将其归一化的结果就是[0.2673,0.5345,0.8018]。其平方和就为1了。Y原创 2017-03-02 13:54:49 · 85336 阅读 · 7 评论 -
随机投影森林-一种近似最近邻方法(ANN)
转载自:http://blog.sina.com.cn/s/blog_7103b28a0102w1ny.html当数据个数比较大的时候,线性搜索寻找KNN的时间开销太大,而且需要读取所有的数据在内存中,这是不现实的。因此,实际工程上,使用近似最近邻也就是ANN问题。其中一种方法是利用随机投影树,对所有的数据进行划分,将每次搜索与计算的点的数目减小到一个可接受的范围,然后建立多个转载 2017-02-15 16:29:51 · 3853 阅读 · 0 评论 -
关于SVD分解
转自http://leftnoteasy.cnblogs.com,前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解转载 2017-02-25 12:33:31 · 553 阅读 · 0 评论 -
K-means聚类
转自:http://www.cnblogs.com/tiandsp/archive/2013/04/24/3040883.html聚类算法,不是分类算法。分类算法是给一个数据,然后判断这个数据属于已分好的类中的具体哪一类。聚类算法是给一大堆原始数据,然后通过算法将其中具有相似特征的数据聚为一类。这里的k-means聚类,是事先给出原始数据所含的类数,然后将含有相似特转载 2017-02-26 20:35:41 · 349 阅读 · 0 评论 -
局部敏感哈希LSH,即matlab代码
转自:http://blog.csdn.net/dudubird90/article/details/50907641很早就想写一篇关于LSH的文章,后来发现前辈们已经写好了,容我这里再推荐一下该文。 Locality Sensitive Hashing(LSH)之随机投影法 http://www.strongczq.com/2012/04/locality-sensi转载 2017-02-26 21:15:05 · 6973 阅读 · 1 评论 -
高斯混合模型EM算法
转自:http://blog.csdn.net/dudubird90/article/details/49759431k-means算法对于数据点和clusters之间的关系,是all-or-nothing的关系,这是一个hard decision,往往会导致的局部最小值,这不是理想的求解。一种常见的做法,是学习这个协方差矩阵,而不是固定它们为单位矩阵。GMM模型及算法转载 2017-02-26 21:17:22 · 811 阅读 · 0 评论 -
关于正则化的理解
转自:http://blog.csdn.net/wsj998689aa/article/details/39547771上学的时候,就一直很好奇,模式识别理论中,常提到的正则化到底是干什么的?渐渐地,听到的多了,看到的多了,再加上平时做东西都会或多或少的接触,有了一些新的理解。1. 正则化的目的:防止过拟合!2. 正则化的本质:约束(限制)要优化的参数。转载 2017-02-27 09:51:30 · 898 阅读 · 0 评论 -
SVD分解
转载请声明出处http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系。前段时间看了国外的一篇文章,叫A Singularly Valuable Decomposition The SVD of a Matrix,转载 2017-03-06 10:11:16 · 393 阅读 · 0 评论 -
仿射变换与透视畸变
在恢复图像的过程中,可能会需要对透视畸变以及仿射变换进行补偿,今天整理了下关于透视畸变和仿射变换的相关概念。原创 2016-12-27 15:35:21 · 3307 阅读 · 0 评论 -
超分辨率重建——邻近算法Nearest Neighbor
转自:http://blog.csdn.net/aladdina/article/details/4141127代码实现:http://blog.csdn.net/rk2900/article/details/9080821邻近算法 KNN算法的决策过程 k-Nearest Neighbor algorithm 基于图像块的超分辨率重建中,往往需要对不同尺度间转载 2017-01-03 20:17:38 · 1509 阅读 · 0 评论 -
超分辨率重建——病态、单应矩阵、高斯权重
我们经常会提到,超分辨率重建是一个病态问题,那么这里的病态该如何理解呢?病态问题本身的定义是:对于一个数值问题本身,如果输入数据有微小的扰动(即误差),引起输出数据(即问题的解)相对误差很大,这就是病态问题。设a为输入数据的相对误差,b为输出数据的相对误差,c为条件数,c=b/a。自变量的相对误差往往不会太大,如果c很大的话,将引起函数值相对误差很大,这样的问题就是病态问题。对于超分辨原创 2016-12-09 10:52:35 · 2469 阅读 · 0 评论 -
超分辨率重建——关于深度学习与卷积神经网络CNN的关系
10年左右杨大神的基于稀疏表示的超分辨率重建方法提出之后也有6年内,看他主页,很多文章都有在用机器学习在做,深度学习在好多领域也好火,这边普及下深度学习与CNN的概念,以下摘自网络。这两个概念实际上是互相交叉的,例如,卷积神经网络(Convolutional neural networks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(Deep Belief Nets,简原创 2016-10-25 18:13:36 · 10453 阅读 · 0 评论 -
超分辨率重建——关于多尺度结构相似性
今天在读文章的过程中看了一篇关于多尺度结构相似性在超分辨率重建方面使用的文章,对里面一些词感觉生涩。1、何为结构相似性2、多尺度的含义,何为相同尺度图像相似块,何为不同尺度图像相似块先说结构相似性,在之前的实验中,一直是以PSNR作为重建质量的参考指标,最近几篇文章看到了很多用结构相似性来做权衡的。结构相似性SIM(Structural Similarity),所谓的结构,比如你看转载 2016-10-26 16:18:53 · 6657 阅读 · 0 评论 -
振铃效应
以下内容摘自百度百科振铃效应(Ringingeffect)是影响复原图像质量的众多因素之一,是由于在图像复原中选取了不适当的图像模型造成的,振铃效应产生的直接原因是图像退化过程中信息量的丢失,尤其是高频信息的丢失,其严重降低了复原图像的质量,并且使得难于对复原图像进行后续处理。振铃效应(Ringingeffect)是影响复原图像质量的众多因素之一,其典型表现是在图像灰度剧烈转载 2016-10-26 17:42:38 · 2449 阅读 · 0 评论 -
卷积与傅立叶变换
转自http://blog.csdn.net/yeeman/article/details/6325693卷积最近总是和卷积打交道,工作需要,每天都要碰到它好几次,不胜烦恼,因为在大学时候学信号与系统的时候就没学会,我于是心想一定要把卷积完全搞明白。正好同办公室的同学也问我什么是卷积,师姐昨天也告诉我说:"我也早就想把这个问题搞明白了!"经过一段时间的思考之后,有一些很有趣的体会和转载 2016-10-26 19:21:38 · 3499 阅读 · 0 评论 -
梯度
前面转了篇梯度下降算法的文章,脑子里对梯度的印象又不太清楚了,以下内容转自百度百科在向量微积分中,标量场的梯度是一个向量场。标量场中某一点上的梯度指向标量场增长最快的方向,梯度的长度是这个最大的变化率。更严格的说,从欧几里得空间Rn到R的函数的梯度是在Rn某一点最佳的线性近似。在这个意义上,梯度是雅可比矩阵的一个特殊情况。在单变量的实值函数的情况,梯度只是导数,或者,对转载 2016-10-26 20:15:55 · 1296 阅读 · 0 评论 -
超分辨率重建——图像伪迹、伪像
最近读文章中,经常会看到图像伪迹,伪像这样的词,一直也没好好的研究它,想着搞学术还是需要严谨一点,今天便上网搜了一下。伪像、伪影、伪迹其实都是一个东西,英文叫Artifact,翻译为遗物,手工制品,人工制品,伪影。应该就是原本不存在的东西。多存在于超声波成像和CT等成像中。网上搜到这样一段关于伪影的定义:广义定义:图像重建过程中,测量到的衰减系数与受检测物体短程真实衰减系数的差异(个人原创 2016-10-27 10:28:19 · 2358 阅读 · 0 评论 -
超分辨率重建——超采样与欠采样
关于超采样和欠采样这两个东西,欠采样还有点印象,超采样就听sony之类的相机啊,会在高分辨率的相机上在录制视频的时候会用到超采样这么个技术,那么超采样和欠采样到底是什么呢?欠采样,这个东西明显是和奈奎斯特采样频率这个东西分不开的:一个带宽为fb的模拟信号,采样速率必须为 fs > 2fb,才能避免信息的损失。实际所需最小采样频率是信号带宽的函数,而不仅取决于它的最大频率成份。通常来原创 2016-10-27 10:46:08 · 8695 阅读 · 0 评论 -
光栅扫描
今天读文章,又看到个词叫做光栅扫描,百度了一圈,只得到下面这个定义:光栅扫描显示器显示图形时,电子束依照固定的扫描线和规定的扫描顺序进行扫描。电子束先从荧光屏左上角开始,向右扫一条水平线,然后迅速地回扫到左边偏下一点的位置,再扫第二条水平线,照此固定的路径及顺序扫下去,直到最后一条水平线,即完成了整个屏幕的扫描。结合文章来看,所谓的按光栅扫描顺序提取图像块,应该就只是从图片的左上角,按原创 2016-10-27 15:31:21 · 6256 阅读 · 1 评论 -
超分辨率重建——先验信息,先验概率,后验概率,最大后验概率
读超分辨率重建的文章,特别是一开始读一些基础的差值的方法的文章时,经常提到的一个概念就没有运用到图像的先验信息。所谓的先验信息可以理解为在实验之前,已经得到的一些信息,即先验信息。对于图像,它可能存在着一些梯度方面的特征,符合某些统计规律,那么这些信息就可以用到实验中去。而这些我们已经知道的图像的一些特性就是图像的先验信息。先验概率:基于某一事实得到的概率,比如昨天有500原创 2016-10-27 16:04:34 · 5453 阅读 · 0 评论 -
超分辨率学习笔记——16年10月5日
最近看文章中遇到了一些名词之类的,不是很理解,去网上搜索了一下,也看了看前辈们的博客,打算每天整理整理,每天进步一点,为论文打好基础。1、人脸幻构:一开始看到这个词感觉很玄乎,看了一些解释后可以下这么个定义,人脸幻构,也可以叫做人脸超分辨率重建技术,指利用一幅或多幅多分辨率人脸图像获得一幅高分辨率人脸图像的复原技术,是超分辨率重建在人脸重建领域的一个分支。2、基于稀疏表示的超分辨率原创 2016-10-05 15:29:27 · 1264 阅读 · 0 评论 -
稀疏表示学习笔记--正交阵,协方差
自己的数学基础比较差,特别是矩阵一块,有一些名词看到了可能不能立刻反应出是什么意思,所以在这里进行一些记录。1、正交矩阵如果:AAT=E(E为单位矩阵,AT表示“矩阵A的转置矩阵”。)或ATA=E,则n阶实矩阵A称为正交矩阵, 若A为正交阵,则满足以下条件:1) AT是正交矩阵2) (E为单位矩阵)3) A的各行是单位向量且两两正交4) A原创 2016-10-18 19:33:13 · 2396 阅读 · 0 评论 -
超分辨率重建——关于YIQ空间
在超分辨率重建过程中,算法往往是对于灰度图像进行相关操作,对于彩色图像的操作,往往就需要用到一些特殊的色彩空间,把亮度信息和色彩信息区分开来,对于亮度信息进行相关的操作,而其他通道的信息,通过简单的插值操作来进行处理,这样做,既恢复出图像更多的细节,又能较好的保证图像的色彩的真实度。今天看到个YIQ空间,于是百度了一下,如下:IQ,是NTSC(National Television原创 2016-11-09 16:02:33 · 996 阅读 · 0 评论 -
关于机器学习、深度学习以及模式识别
随着这两年深度学习的火爆,在超分辨率重建领域也有着越来越多关于深度学习相关方法的文章涌现出来。对于之前没有接触过机器学习之类的人,看起来确实会有些一头雾水,所以这里整理了一下三个关于此的热词。深度学习、机器学习以及模式识别。模式识别(Pattern recognition),机器学习(machine learning),深度学习(deep learning)。其中模式识别是最古老的,可以说是最转载 2016-11-09 16:42:57 · 5411 阅读 · 0 评论 -
超分辨率重建学习——一些矩阵的知识点
1、关于点积在数学中,数量积(dot product; scalar product,也称为点积)是接受在实数R上的两个向量并返回一个实数值标量的二元运算。它是欧几里得空间的标准内积。两个向量a = [a1, a2,…, an]和b = [b1, b2,…, bn]的点积定义为:a·b=a1b1+a2b2+……+anbn。使用矩阵乘法并把(纵列)向量当作n×1 矩阵原创 2016-10-19 15:20:18 · 704 阅读 · 0 评论 -
Sign函数
今天在看一篇基于深度学习的超分辨率重建的文章中遇到这样一个函数sign(x),这是一个符号函数,用于把函数的符号析离出来,在数学和计算机运算中,其功能是取某个数的符号(正或负):当x>0,sign(x)=1;当x=0,sign(x)=0;当x在通信中,sign(t)表示这样一种信号:当t≥0,sign(t)=1; 即从t=0时刻开始,信号的幅度均为1原创 2016-11-13 11:16:14 · 23478 阅读 · 0 评论 -
关于线性空间和线性映射
在超分辨率重建过程中的图像块配对时,经常会提到非线性映射这么一个词,所以抽时间整理一下关于线性映射和非线性映射的相关概念。为了搞清楚线性映射,首先得搞清楚线性空间,为了搞清楚线性空间,首先要知道数域的概念。数域:是一个集合含有加法和乘法,含有元素0,对于任意元素a,有a+0=a,含有元素1,满足a*1=a,任意元素a存在负元素b,满足a+b=0。非0元素a存在逆元素b,满足a*b=1,对于原创 2016-11-23 19:45:38 · 20858 阅读 · 2 评论 -
MP与OMP方法
转自:http://blog.csdn.net/scucj/article/details/7467955主要介绍MP(Matching Pursuits)算法和OMP(Orthogonal Matching Pursuit)算法[1],这两个算法虽然在90年代初就提出来了,但作为经典的算法,国内文献(可能有我没有搜索到)都仅描述了算法步骤和简单的应用,并未对其进行详尽的分析,国外的文献还是分转载 2017-03-06 10:29:37 · 5539 阅读 · 0 评论