CV/图片识别
文章平均质量分 77
判断所给的目标是动物还是人还是其他东西
u013250861
这个作者很懒,什么都没留下…
展开
-
人脸识别评价指标: TAR@FAR(ROC)
假设检索库1000张人脸,底库10000张人脸,top1正确的人脸有900张,错误的人脸有100张。先说一下我之前的统计人脸识别率的方式。解释一下TAR@FAR这个概念。原创 2022-09-02 07:40:31 · 552 阅读 · 0 评论 -
人脸识别-损失函数:概述【Softmax loss→Center Loss→L-Softmax Loss→SphereFace→CosFace→ArcFace】
L=−j=1∑Tyjlog(Sj)=−N1i∑log(∑jewjTxiewyiTxi)LSjSjjyjj1Ty1×TT11T−10110样本3真实类别为c1,c5loss3=−∑yi,c⋅log(pi,c)=−[y3,1⋅log(p3,1)+原创 2022-08-18 21:48:10 · 727 阅读 · 0 评论 -
Loss(一)-2010:Softmax Loss(Softmax激活函数 + “交叉熵损失函数”)【样本3真实标签为C₅,则样本3的损失:loss³=-log(ŷ₅³),ŷ₅表示预测为5的概率值】
一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。例如我们的输入是 (x1,x2,x3,x4)=(1,2,3,4)(x_1,x_2,x_3,x_4)=(1,2,3,4)(x1,x2,x3,x4)=(1,2,3,4), 那么,Softmax就是对每个元素进行如下的操作:打印结果:1.2 对普通输入进行LogSoftmaxLogSoftmax就是对Softmax处理后的每个元素计算 logloglog 或 lnlnln 值:打印结果:2、对神经网络的输出进行Sof原创 2022-08-18 23:49:58 · 466 阅读 · 0 评论 -
CV-CNN-2015:FaceNet(人脸特征向量提取、计算欧氏距离)【Triplet(三元组) Loss:最大化不同人脸的距离&最小化相同人脸的距离】【可使用Mobilenet作为特征提取网络】
谷歌人脸识别算法,发表于 CVPR 2015,利用相同人脸在不同角度等姿态的照片下有高内聚性,不同人脸有低耦合性,提出使用 cnn + triplet mining 方法,在 LFW 数据集上准确度达到 99.63%。通过 CNN 将人脸映射到欧式空间的特征向量上,实质上:不同图片人脸特征的距离较大;通过相同个体的人脸的距离,总是小于不同个体的人脸这一先验知识训练网络。测试时只需要计算人脸特征Embedding,然后计算距离使用阈值即可判定两张人脸照片是否属于相同的个体。1、输入一张人脸图片。.......原创 2021-11-17 20:32:54 · 3203 阅读 · 2 评论 -
Loss(二)-2016:Center Loss【使得类内距离缩小,类间距离扩大,有效的将各个类别区分开】【在欧式空间中惩罚人脸特征与他们对应的类别中心的距离来达到增加类内紧凑性】
Center Loss是通过将特征和特征中心的距离和softmax loss一同作为损失函数,使得类内距离更小,有点L1,L2正则化的意思。ECCV2016的文章《A Discriminative Feature Learning Approach for Deep Face Recognition》 主要为了进一步区分人脸。...原创 2022-08-22 21:18:17 · 604 阅读 · 0 评论 -
Loss(三)-2017:Large-Margin Softmax Loss【Margin:角度分类边界之间的空白角度区域;增大该区域可提高分类精度;缺陷:无法处理W_i≠W_j情况,训练不稳定】
尽管传统的softmax在卷积网络作为最常用的监督学习组件,但是他不能促进判别性强的特征的学习,在这篇论文里面首先提出一种基于Margin的L-Softmax损失函数,可以明确地促使学习到的特征具有类内的紧凑性和类间的可分离性。此外L-Softmax不仅可以调节所需的Margin,还可以避免过拟合的发生。这个损失函数可以通过经典的随机梯度下降算法优化。Large-Margin Softmax Loss(L-Softmax Loss)是为了提高类内特征的紧凑性,拉大类间特征的间隔(intra-class co原创 2022-08-18 23:13:47 · 743 阅读 · 0 评论 -
人脸识别-Loss-2017:Angular Softmax Loss【SphereFace;对L-Softmax Loss改进,限制||W||=1使预测仅取决于W与X角距离解决W_i≠W_j的情况】
如果你了解large margin softmax loss(作者和A-softmax loss是同一批人),那么A-softmax loss简单讲就是在large margin softmax loss的基础上添加了两个限制条件||W||=1和b=0,使得预测仅取决于W和x之间的角度。论文:《SphereFace: Deep Hypersphere Embedding for Face Recognition》原创 2022-08-18 23:08:14 · 272 阅读 · 0 评论 -
Loss(五)-2018:Large Margin Cosine Loss(LMCL/CosFace)【SphereFace只对W归一化;CosFace对W、X都归一,在余弦空间中最大化分类界限】
均进行了归一化,不过为了使得训练能收敛,增加了一个参数。二者核心原理一致,只是在论文写作中的其他侧重点有所不同。进行归一化,CosFace中对。SphereFace中只对。原创 2022-08-18 23:29:55 · 375 阅读 · 0 评论 -
Loss(六)-2018:ArcFace【对CosFace的改进】【ArcFace:直接在角度空间(angular space)中最大化分类界限;CosFace是在余弦空间中最大化分类界限】
特征提取通常可以认为是人脸识别最关键的步骤,我们希望提取到的特征更偏向于该人脸"独有"的特征。我们的网络和模型承担着提取特征的重任,优秀的网络和训练策略使模型更加健壮。在ResNet在2015年被提出后,越来越多优秀的网络基于ResNet进行优化更新也已取得卓越的成就,而在 网络结构进一步升级优化有困难的情况下,研究者逐步将目光转向损失函数。关于Loss对于网络的影响,最直观的就是训练中通过计算Loss反传梯度来实现对模型参数的更新。.....................原创 2022-08-16 08:09:44 · 1197 阅读 · 0 评论 -
人脸识别-数据集:Open-set、Close-set区别
Open-set,就是测试的图片并没有在训练集中出现过,那么每张测试图片的预测结果是特征向量,如果想要比较两张图片的人脸是否属于同一个人,需要测试图像特征向量的距离。Close-set,就是所有的测试集都在训练集中出现过。所以预测结果是图片的ID,如果想要测试两张图片是否是同一个,那么就看这两张图片的预测ID是否一样即可。...原创 2022-08-18 23:35:16 · 509 阅读 · 0 评论