论文笔记(IQA):Deep Neural Networks for No-Reference and Full-Reference Image Quality Assessment

本文2018年发表于TIP,介绍了无需参考和全参考两种图像质量评估模型。FR-IQA模型采用Siamese CNN进行特征提取和融合,NR-IQA模型则删除了参考图像分支。模型通过端到端训练,包含多个卷积和池化层,以回归图像质量。实验表明模型在多个数据库上表现出色,且数据驱动的训练方法不依赖手工操作或先验知识。
摘要由CSDN通过智能技术生成
@article{Bosse2017Deep,
  title={Deep Neural Networks for No-Reference and Full-Reference Image Quality Assessment},
  author={Bosse, S. and Maniry, D. and Muller, K. R. and Wiegand, T. and Samek, W.},
  journal={IEEE Transactions on Image Processing},
  volume={27},
  number={1},
  pages={206-219},
  month={Jan.},
  year={2018},
}


[arxiv]: http://arxiv.org/abs/1612.01697
 

这是2018年的一篇 TIP 文章,在 LIVE,CISQ,TID2013和Wild Image Quality Challenge数据库上进行了性能比较。这篇文章包括了一个FR-IQA和一个NR-IQA。这篇文章是纯数据驱动,没有依靠任何的手工操作或者NSS的先验知识。该论文的网络是端到端的训练网络,包括10个卷积层,5个pooling 层用于特征提取,以及2个fully-connected层用于回归。

注:数据驱动是通过移动互联网或者其他的相关软件为手段采集海量的数据,将数据进行组织形成信息,之后对相关的信息进行整合和提炼,在数据的基础上经过训练和拟合形成自动化的决策模型。当新的情况发生,新数据输入的时候,系统可以用前面建立的模型以人工智能的方式直接进行决策。

(1)FR-IQA Model

下图是FR-IQA Model框架:

WaDIQaM-FR 或 DIQaM-FR

 图一: Deep neural network model for FR IQA. Features are extracted from the distorted patch and the reference patch by a CNN and fused as difference,concatenation or concatenation supplementary

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值