读《Finger vein recognition based on lightweight CNN combining center loss and dynamic regularization》

本文针对手指静脉识别中基于红外光传感器的图像质量问题,提出了一种结合中心损失函数和动态正则化的卷积神经网络方法。经典方法包括图像处理、特征提取和匹配,而本文简化了CNN模型,通过中心损失优化提高分类准确性和收敛速度。中心损失用于增加类别间的距离,减少误识别,同时动态正则化有助于避免过拟合。实验结果表明,这种方法改善了识别性能,特别是在类别不平衡和噪声敏感的情况下。
摘要由CSDN通过智能技术生成

2020

摘要

由于基于红外光的传感器条件令人失望,手指静脉图像的质量并不令人满意。这个问题导致了指链识别的不准确性。为了解决这一问题并加快收敛速度,本文提出了一种利用具有中心损失函数和动态正则化的卷积神经网络(CNNs)来识别手指静脉的新方法。(无敌的CNN有监督学习都无视图像质量了吗)

引言

手指静脉识别的经典研究主要包括图像采集、图像预处理、特征提取和特征匹配四个部分。其中最重要的部分是特征提取,因为提取的特征的质量对后续的匹配阶段有很大的影响。特征提取方法有两种方法,一种是手工制作的特征(LBP[6],SIFT[7]),该特征是基于人们对样本特征的理解而伪造特征的;另一种方法是基于神经网络,可以自动提取具有代表性的深度特征,这类特征不能很好地理解,但表现很好。(qs)
the classical research on finger vein recognition mainly includes four parts: image acquisition, image pre-processing, feature extraction and feature matching. The most important part among them is feature extraction, because the quality of extracted feature has a great influence on subsequent matching phase. There are two ways for feature extraction, one is hand-crafted features (LBP [6], SIFT [7]), this feature are forged features based on people’s understanding to the characteristics of samples; another way is based on neural network, which can automatically extract representative deep features, this kind of features can’t be understood well but performs well.

本文轻量化CNN(类似Alexnet),靠中心损失优化

过去

(1)手工制作的特征可以认为是肤浅的特征,所以它不能代表整个图像,可能包含无用的信息。
(2)手工制作的功能对噪音很敏感。
(3)没有人工干预,手工制作的特征无法自动从原始图像中提取,因此不方便、耗时
(1) Hand crafted features can be considered to be shallow features, So it can barely represent the whole image and may contain useless information.
(2) The hand crafted features are sensitive to noise.
(3) Without human intervention, hand crafted features can’t be automatically extracted from the original images, which is inconvenient and time-consuming

而深度学习吃数据,耗时

方法

所使用的网络包含3个卷积层、3个池化层和2个全连接层,如图所示,类似于AlexNet网络,第2层更关注边和角。第3层包含了更多关于复杂不变性和类似纹理的信息。第4层显示出显著的变化,更针对类别。第5层描述了手指静脉有显著的姿势变化。最后一层表示整个手指静脉的特征向量。(这每一层是干啥的是咋来的,不是黑箱吗?又没加啥限定?难道是根据feature map推测的?那总得上个图吧,害)

分析三元损失

从二维特征的分布情况可知,可以得出结论,这种损失函数优化模型不够。这个问题可以归因于两个原因。
第一个原因是三元损失的缓慢收敛(能改进吗)
二是这种损失函数不能充分利用带有标签的信息(但是都提前划分同类异类了,本质上已经用上类别标签了啊,又不是$C_N^3$硬排列组合,总之这不该算作无监督吧)

中心损失

在手指静脉识别中,即使是来自不同id的不同手指也有相似的背景,这将导致许多错误识别,因为两个不同样本之间的距离不够分离(ROI呢?!就算你不用图像增强那ROI都不要了吗?)。中心损失函数首先用于人脸识别,并取得了令人难以置信的结果[22],本文的关键部分是说明如何在保持不同类的特征可分离的同时,最小化类内的变化。因此,由于这种有效的损失函数,提高了模型的鉴别能力。这种做法可以最小化来自同一标签的两个样本之间的距离,并使与不同标签之间的距离最大化。中心损耗函数的核心显示如下:
在这里插入图片描述
其中cyi∈Rd表示深特征的第yi类中心(闹了半天中心损失就是算样本与类中心的距离?聚类指标里的Compactness(紧密性)和Separation(间隔性)不就是这,这不是更无监督?)

为了简化理想的复杂度

(1)更新小批量的训练样本,而不是整个训练集的类别中心;在每次迭代中,只平均相应类别的特征(有些类别中心可能不更新)(方便了不少,但是合理吗)
(2)为了避免小样本类别造成的大干扰,采用因子α来控制类别中心的学习率。

实验

由于正负比例不平衡,所以AUC都>0.99,不利于比较,因此引入了PR(精度-召回)曲线,在负例子数量相当多,而正例子数量极少的情况下,精度-召回曲线具有较高的判别能力。此外,本文还引入了CMC曲线[24],这种评价指标将解释该模型的稳健性

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值