![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文理解
嘻哈过路人
这个作者很懒,什么都没留下…
展开
-
ManTra-Net论文理解
一、Abstract1、Mantra-Net是一个端到端的网络,无需进行预处理与后处理,可执行定位与检测,是一个全卷积神经网络。2、学习385种图像操作类型中学习出鲁棒的图像操作轨迹。3、设计一个Z函数捕捉局部异常,并通过时间轴进行结合(ConvLSTM)评估局部异常4、ManTra-Net可进行多篡改区域检测,不仅仅局限于单一的篡改。二、Introduction传统方法只关注与图像级而不关注于像素级,图像级就是一个 像素为中心取一个图像块,取图像块的特征作为样本进行训练。并且定位的过程原创 2020-09-21 21:15:08 · 2931 阅读 · 0 评论 -
Unsupervised Deep Image Fusion With Structure Tensor Representations论文笔记
一、Abstract1、题目基于结构张量表示的无监督深层图像融合(光/热成像融合、远焦/近焦融合,欠曝/过曝融合,RGB/NIR图像融合)2、现有问题缺乏用于监督学习的标记数据3、提出了一个deep image fusion network (DIF-Net)一个无监督的损失函数使用结构张量表示的多通道图像对比度,通过特征提取、特征融合和图像重建来融合图片。二、Introduction1、图像融合提取各自信道中的有利信息,从多幅图像中生成包含重要特征的融合图,最后综合成高质量的图像2、结原创 2020-09-05 14:11:04 · 1264 阅读 · 4 评论 -
对Batch Normalization理解
论文地址:https://arxiv.org/pdf/1502.03167.pdf深层神经网络有一个前提是IID即独立同分布假设,而每一层输入的分布都会随着前一层参数的变化而变化,这就降低了训练的速度,如图所示当底层网络中参数发生微弱变化时,由于每一层中的线性变换与非线性激活映射,这些微弱变化随着网络层数的加深而被放大(类似蝴蝶效应);另一方面,参数的变化导致每一层的输入分布会发生改变,进而上层的网络需要不停地去适应这些分布变化,使得我们的模型训练变得困难。上述这一现象叫做Internal Covar原创 2020-07-10 12:10:11 · 329 阅读 · 0 评论 -
Learning Rich Features for Image Manipulation Detection论文笔记
图像篡改技术:拼接、复制、去除一、解决的问题:视觉篡改(例如,被篡改边缘附近的篡改),而且可以捕获局部噪声特征中的不一致性。二、概述从RGB图像输入中提取特征来发现篡改伪影,如强烈的对比度差、不自然的篡改边界等利用从富含隐写分析的模型滤波器(SRM)层提取的噪声特征来发现真实和篡改区域之间的噪声不一致。双线性池化层融合来自两个流的特征三、网络结构RGB stream input:RGB 流输入;对可见的篡改痕迹(例如:物体边界经常出现的高对比度)进行建模,并将边界框(bounding bo原创 2020-07-24 12:20:31 · 1176 阅读 · 3 评论 -
A New Approach Towards General Purpose Image Manipulation Detection论文笔记
1、解决的问题:图像操作通常会留下图像编辑类型所特有的痕迹,分析不同图像操作的痕迹,图像取证,检测图像篡改。2、现有检测方法:调整大小和重采样、中值滤波、对比度增强、多JPEG压缩等,但是这些检测的都是单个目标操作,还要融合多个取证检测的结果,并且为不同的图像操作创建取证检测器是一个困难和耗时的过程。3、constrained CNN普通的cnn网络倾向于学习图像的内容,而不适合学习与内容无关的篡改痕迹,所以提出了一种constrained CNN的方法,让其来学习低级的操作特征。3.1、做法:原创 2020-08-07 14:07:29 · 1064 阅读 · 0 评论