真实世界实时人员重识别
▌Real-Time Online Unsupervised Domain Adaptation for Real-World Person Re-identification
![](https://i-blog.csdnimg.cn/blog_migrate/5516ae49624240a766a7d0fb49255295.png)
![](https://i-blog.csdnimg.cn/blog_migrate/753ec3d8a597d08fb7b108502e4b797f.webp?x-image-process=image/format,png)
论文作者:Christopher Neff,Armin Danesh Pazho,Hamed Tabkhi
作者单位:University of North Carolina at Charlotte
论文链接:http://arxiv.org/abs/2306.03993v1
内容简介:
1)方向:真实世界实时在线无监督域适应
2)应用:人员重识别
3)背景:无监督域适应在人员重识别中很受欢迎,但是现有的研究忽略了真实世界应用中的一些限制,因此提出了真实世界实时在线无监督域适应(R 2^2OUDA设置的严格限制,其准确度与不能直接应用于真实世界应用的可比OUDA方法相差不到0.1%。
![](https://i-blog.csdnimg.cn/blog_migrate/712bd366a1853f6fed673cba0f792f6d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/40f662de38e3f729adb2f90f6cc1414d.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/7bde27f5ab1caf5eaa3ab515f6e9ecd5.png)
![](https://i-blog.csdnimg.cn/blog_migrate/2ab8d4ab9ab8fef2cdcef911d745aa9b.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/20e1ece17efc447422ea76f6ffd4f162.png)
![](https://i-blog.csdnimg.cn/blog_migrate/b80d1819b5e6f45cfc786b94efea567b.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/d97511ee908e257f0010e980f5bb79b8.png)
![](https://i-blog.csdnimg.cn/blog_migrate/3f0eaa2a34fed66086835e036bf6b25d.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/e55cfd6a0b935e72247d1e46e2388fd6.png)
![](https://i-blog.csdnimg.cn/blog_migrate/75ec02289e481362787de2d5864d1c39.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/c3576803426d75baf4fb2d8ef786b264.png)
![](https://i-blog.csdnimg.cn/blog_migrate/cfdd32c28a5216aa7446951ec69963f5.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/f94fe69da332025e3792120e1d43c27c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/81b43966e5a8985fe2bacfaa0ba229d5.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/a9541d9a2e04f09424198fe57f2aea28.png)
![](https://i-blog.csdnimg.cn/blog_migrate/8e26ddbb287a3948c011e42d16724e45.webp?x-image-process=image/format,png)
烟雾分割
▌FoSp: Focus and Separation Network for Early Smoke Segmentation
![](https://i-blog.csdnimg.cn/blog_migrate/7321f93c0772e85b6d8d538b0df3f249.png)
![](https://i-blog.csdnimg.cn/blog_migrate/dfc2c1ffac27507d5a631b96d2239670.webp?x-image-process=image/format,png)
论文作者:Lujian Yao,Haitao Zhao,Jingchao Peng,Zhongze Wang,Kaijie Zhao
作者单位:East China University of Science and Technology
论文链接:http://arxiv.org/abs/2306.04474v1
内容简介:
1)方向:烟雾分割
2)应用:早期烟雾分割
3)背景:早期烟雾分割(ESS)可以准确识别烟雾源,有助于及时扑灭火灾和防止大规模气体泄漏。但是,由于早期烟雾的小尺度和透明外观,与传统的物体和常规烟雾分割相比,ESS面临更大的挑战,可能导致高漏检率和低精度。
4)方法:本文提出一种名为FoSp(Focus and Separation Network)的模型。首先,引入了一个Focus模块,采用双向级联,将低分辨率和高分辨率特征引导到中分辨率,以定位和确定烟雾的范围,从而降低漏检率。接下来,提出了一个Separation模块,将烟雾图像分离成纯烟雾前景和无烟雾背景,从根本上增强了烟雾和背景之间的对比度,提高了分割精度。最后,开发了一个Domain Fusion模块,将两个模块的独特特征集成起来,可以平衡召回率和精度,实现高F_beta。此外,为了促进ESS的发展,引入了一个高质量的真实世界数据集SmokeSeg,其中包含比现有数据集更多的小尺度和透明烟雾。
5)结果:实验结果表明,FoSp模型在三个可用数据集上均取得了最佳性能:SYN70K(mIoU:83.00%),SMOKE5K(F_beta:81.6%)和SmokeSeg(F_beta:72.05%)。特别是,在SmokeSeg上,FoSp的性能比SegFormer高出7.71%(F_beta),用于早期烟雾分割。
![](https://i-blog.csdnimg.cn/blog_migrate/df0538e83699694da4493c97816d53c2.png)
![](https://i-blog.csdnimg.cn/blog_migrate/99d98b1b13b0d6a106b90d12ec7be524.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/8481609c15bb32cf96441b8072919685.png)
![](https://i-blog.csdnimg.cn/blog_migrate/4ddc640abe145a179f6dc99e3ad9afe0.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/bf14bcf344e4556cfdf41ddedc3c11f7.png)
![](https://i-blog.csdnimg.cn/blog_migrate/92d018e3f6370d1654cbcdcd12e817d7.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/f41a9b0e1a4b13c89b9d7a2e374b0d9d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/eccad0ce1c5199df00ee88da82e19f53.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/b9d93f3f6062cc76d0242c2f5a874021.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f44c125b5a9f1a3284c217b5165727f9.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/c4b410bdcc0162e7d3a0ad2d72f072f3.png)
![](https://i-blog.csdnimg.cn/blog_migrate/748eb6464a2b3c01dc421c621117c65c.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/6a87d5b58d8d2da778e2966bb42fd17c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d2a1285e41c256109af57f439470f524.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/0dc93cf446bdb2da403f903e5dac337d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/a2afec106b1fdd3835c16e4db40728dd.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/8b980a59be9417c04dbd2a522f8fa45f.png)
![](https://i-blog.csdnimg.cn/blog_migrate/c540d2e65a915f2d47ae2cfd3bae6118.png)
![](https://i-blog.csdnimg.cn/blog_migrate/56a26b31dfa19958d7b8a31c4fe104eb.png)
![](https://i-blog.csdnimg.cn/blog_migrate/cafd98f094ae4262e1528e180d463014.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/fdc4d8b4282b3c3e7128debd378d5316.png)
![](https://i-blog.csdnimg.cn/blog_migrate/eb4d4cfc4d93b9b0c0b34f1c3e5f687a.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/2bda1e1921fb01330549ccae34cfc61f.png)
![](https://i-blog.csdnimg.cn/blog_migrate/efc2a92f2020eb2b1c709adff9a22a1d.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/685a692b80022beab5fedbf85935c815.png)
![](https://i-blog.csdnimg.cn/blog_migrate/fbe4852aee307d540c043ebdf303e497.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/c6419fb4ec1dafb8eb38df41271d9aaa.png)
![](https://i-blog.csdnimg.cn/blog_migrate/cac10fc91a37ee26c46b1c880c012110.webp?x-image-process=image/format,png)
自然图像抠图
▌Matte Anything: Interactive Natural Image Matting with Segment Anything Models
![](https://i-blog.csdnimg.cn/blog_migrate/4e139c954c77659a1090075d6c25bc5c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/9f72eadf0124a57679d7bf9052704e2e.png)
论文作者:Jingfeng Yao,Xinggang Wang,Lang Ye,Wenyu Liu
作者单位:School of EIC, HUST
论文链接:http://arxiv.org/abs/2306.04121v1
内容简介:
1)方向:自然图像抠图算法
2)应用:图像处理、计算机视觉
3)背景:自然图像抠图算法需要使用trimap来指导透明度图的预测,但是生成trimap需要大量的人力,限制了抠图算法的大规模应用。
4)方法:本文提出Matte Anything模型(MatAny),一种交互式自然图像抠图模型,可以通过各种简单的提示生成高质量的alpha-matte。MatAny的关键是利用轮廓和透明度预测自动生成伪trimap。使用任务特定的视觉模型来增强自然图像抠图的性能。具体来说,使用Segment Anything模型(SAM)来预测高质量的轮廓,并使用开放词汇(OV)检测器来预测任何对象的透明度。然后,预训练的图像抠图模型使用伪trimap生成alpha-matte。MatAny是迄今为止支持交互方法最多且性能最佳的交互式抠图算法。它由正交视觉模型组成,无需任何额外的训练。
5)结果:将MatAny与几种当前的图像抠图算法进行了性能评估,结果表明了所提出方法的显著潜力。
![](https://i-blog.csdnimg.cn/blog_migrate/36a442af2deda7ecb5b52cadec03b57e.png)
![](https://i-blog.csdnimg.cn/blog_migrate/5cfd6414841ddfc5e362beeac835bda5.png)
![](https://i-blog.csdnimg.cn/blog_migrate/af4c19bcaf17cdb67a1350733d4e62bc.png)
![](https://i-blog.csdnimg.cn/blog_migrate/edb4556ae30e96687e61e6e865a18c8c.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/21dc73ae22cc1715feeeb33c4d4de72d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/72529187e1fe2af5a93c1731e09becfc.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/c5ee9d8cac060feee00283b3cbc9c81c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/9c04c2e396287afd26dfeb7dc78e48bb.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/51e5601c84caaf6ebb717c0536751730.png)
![](https://i-blog.csdnimg.cn/blog_migrate/e889bbe60c4b70b08c7ee36a3abdef87.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/3473c9472c8c3fc4ebf72d0d0bf119df.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f786d96e495db0a8bdd29c23756ef6b8.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/bc041efe3db66a132e03aa42681a15b1.png)
![](https://i-blog.csdnimg.cn/blog_migrate/15c5ab94abe5c5aadbd2ee04436672dc.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/db4cae5bea5eb512c825287eb27453b1.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ccc88e908f6aab3a6f01c3d5824d56c8.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/2d8f64b21ac67ca56dd418262be47ce4.png)
![](https://i-blog.csdnimg.cn/blog_migrate/b01c1cab40bf05ee32d484074057963d.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/d5053681c1dfbcf39a9deb2ae5db6363.png)
![](https://i-blog.csdnimg.cn/blog_migrate/31db8d765647b820edfa2c732a68cfd3.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/144ad88e26e60086a03bb3336f43d4d5.png)
![](https://i-blog.csdnimg.cn/blog_migrate/e500f85efbe4687ace7b02afaad658b9.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/73e0884202278213d677f2f3903c99fa.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f20c242f106d5d3416c7783b4528ac61.webp?x-image-process=image/format,png)
剪枝
▌CFDP: Common Frequency Domain Pruning
![](https://i-blog.csdnimg.cn/blog_migrate/532aa8c3b319f49f0d3fceb944d6a478.png)
![](https://i-blog.csdnimg.cn/blog_migrate/be20ea9f2e31296f0f9a11f0b79df5ab.webp?x-image-process=image/format,png)
论文作者:Samir Khaki,Weihan Luo
作者单位:University of Toronto
论文链接:http://arxiv.org/abs/2306.04147v1
项目链接:https://github.com/Skhaki18/CFDP
内容简介:
1)方向:剪枝
2)应用:神经网络模型的优化和压缩
3)背景:神经网络剪枝是一种选择性地剪枝网络的不必要部分以创建更简化、高效的架构的方法。本文旨在通过频域方法揭示中间模型输出之间的互操作性及其在空间域之外的重要性。
4)方法:本文介绍一种新的端到端模型剪枝流程,即 Common Frequency Domain Pruning (CFDP)。该方法通过利用特征映射上定义的常见频率特征,对网络的各个通道进行排序,确定它们在学习表示中的重要性水平。
5)结果:CFDP的使用使得在CIFAR-10数据集上,GoogLeNet的准确率达到了95.25%,比原始模型提高了0.2%。在ImageNet数据集上,CFDP模型在仅使用55%的可训练参数和60%的浮点运算数(FLOPs)的情况下,超过了所有基准,并与原始模型性能相匹配。此外,通过CFDP产生的模型在各种配置下表现出鲁棒性,包括从未训练的神经网络架构剪枝和对抗性攻击的抵抗性。
![](https://i-blog.csdnimg.cn/blog_migrate/9f91445a9a0cfcf6515599b4b9355a91.png)
![](https://i-blog.csdnimg.cn/blog_migrate/fff6a997d1f8740ec4d75761a5e68a78.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/542f421a919345f2c180d901e9694cfa.png)
![](https://i-blog.csdnimg.cn/blog_migrate/86e3062ef8e93d8c7d0745cd188c70a9.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/9dacfbe513afbb8c46fd626a7b1c6771.png)
![](https://i-blog.csdnimg.cn/blog_migrate/a90ce59645818d1d1c18a7c22f6dc861.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/6bbe4d113c55d27de243184211e03c86.png)
![](https://i-blog.csdnimg.cn/blog_migrate/64b11237fa3e4d19b3077a0969bc857b.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/f5305d53ab1a69f69f794f1fefb7a9d8.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ee76c44ba499429e0c537c11f6f569e6.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/7df4531a5eed0d8b93c924732e45a30a.png)
![](https://i-blog.csdnimg.cn/blog_migrate/a95effb3a2a9a0de28d1c77f579e9d44.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/9e49028dc14b49b801dcecf8ec94220e.png)
![](https://i-blog.csdnimg.cn/blog_migrate/fc98e98e4ce82b6225d43abe43aeb00b.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/96ea5cd6572e456343c77e9e0ecbab58.png)
![](https://i-blog.csdnimg.cn/blog_migrate/97c909e8036e9e5b29f7398fdcc49748.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/7aef9df943290bb3ddbb009b1f697a69.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d81746e7ef11cab66301ad9bc1435cf2.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/4a8c3fb635277466d8bc57c94378b068.png)
![](https://i-blog.csdnimg.cn/blog_migrate/88485f44d93ac09f82730acd283437c4.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/b7e446108c4a0d7597fd02c121e1b5d7.png)
![](https://i-blog.csdnimg.cn/blog_migrate/08a00754dc309914000f00e1db94dd76.png)
![](https://i-blog.csdnimg.cn/blog_migrate/09bdbb5fe771d633e464375f97d1bc29.png)
![](https://i-blog.csdnimg.cn/blog_migrate/2363a4f9398171b37668720b049ad3d8.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/2a05cd64756d2170f8ffdfab221eeb40.png)
![](https://i-blog.csdnimg.cn/blog_migrate/024a06ed136892ba9e829c64b6cdc2a8.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/a41514ccaa1e7dff00a67bf862ab23a9.png)
![](https://i-blog.csdnimg.cn/blog_migrate/215396e7256f5e3755e13c0fa673eac0.webp?x-image-process=image/format,png)
手写文本识别
▌Recognition of Handwritten Japanese Characters Using Ensemble of Convolutional Neural Networks
![](https://i-blog.csdnimg.cn/blog_migrate/3357abd2dd6d44ebb5b3e0841c278fd8.png)
![](https://i-blog.csdnimg.cn/blog_migrate/5b4b8d844ca52ab138b18f4da80b537c.webp?x-image-process=image/format,png)
论文作者:Angel I. Solis,Justin Zarkovacki,John Ly,Adham Atyabi
作者单位:University of Colorado Colorado Springs
论文链接:http://arxiv.org/abs/2306.03954v1
内容简介:
1)方向:手写文本识别
2)应用:识别手写日语汉字
3)背景:日语书写系统复杂,包括Hiragana(平假名)、Katakana(片假名)和 Kanji(汉字)三种字符类型,汉字数量众多,增加了字符识别和文学理解的复杂度。将手写日语汉字转换为数字文本对于数据分析、翻译、学习和文化保护非常有用。
4)方法:本文提出一种机器学习方法,用于分析和识别手写日语汉字。它使用三个卷积神经网络(CNN)的集成来识别手写汉字,并利用MNIST、K-MNIST、Kuzushiji-49(K49)和Kuzushiji-Kanji(K-Kanji)数据集进行性能评估。
5)结果:结果表明,使用所提出的CNN集成架构识别手写字符是可行的,在MNIST、K-MNIS、K49和K-Kanji数据集上分别实现了99.4%、96.4%、95.0%和96.4%的分类准确率。
![](https://i-blog.csdnimg.cn/blog_migrate/e95afe5c87babb8ae0968c5629503a07.png)
![](https://i-blog.csdnimg.cn/blog_migrate/3b22cd629a4cdcab9ca1469b14155c41.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/59fc0fd4f294812eefc6841bc8fc0430.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f613fdb068cc5aa9f1f99c1895a4ae92.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/276357519ae76f9bdb2a8eb0a86088b1.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d7f91814a1b86ccc9bd4ffca46aa6357.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/70f127b0c3544c98f5db8fa0d8a7baab.png)
![](https://i-blog.csdnimg.cn/blog_migrate/7c05843c4ed01f111f9ded3c1e00fbc2.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/7b794ceda7328ebeb8355b0e753981b2.png)
![](https://i-blog.csdnimg.cn/blog_migrate/8b94e0ed79405091454909c8be86f3c0.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/5831956712f67c9a4e2d6331b6604601.png)
![](https://i-blog.csdnimg.cn/blog_migrate/384e346cca3a19608ecfc08564aafd48.png)
![](https://i-blog.csdnimg.cn/blog_migrate/528cb180b7c1677f11b0019e069470d0.png)
![](https://i-blog.csdnimg.cn/blog_migrate/0e3d0e98d981e8e214d3cadc23dbe344.webp?x-image-process=image/format,png)
视频编码
▌Video Compression with Arbitrary Rescaling Network
![](https://i-blog.csdnimg.cn/blog_migrate/065faa15fc17415ed71db5294cac329e.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1abf28089ecdfd7166c08ef25da5a0a5.webp?x-image-process=image/format,png)
论文作者:Mengxi Guo,Shijie Zhao,Hao Jiang,Junlin Li,Li Zhang
作者单位:Bytedance Inc.
论文链接:http://arxiv.org/abs/2306.04202v1
内容简介:
1)方向:视频编码技术
2)应用:视频流媒体服务
3)背景:视频平台提供不同质量的视频流媒体服务,服务质量通常通过视频分辨率进行调整。因此,需要对高分辨率视频进行降采样以进行压缩。为了解决不同分辨率下的视频编码问题,提出了一种基于速率引导的任意重缩放网络(RARN),用于在编码之前调整视频大小。
4)方法:为了使RARN与标准编解码器兼容并生成压缩友好的结果,引入一种基于迭代优化的基于transformer的虚拟编解码器(TVC),用于模拟视频编码的关键组件并执行比特率估计。
5)结果:通过迭代训练TVC和RARN,在不同的编码配置和分辨率下,实现了5%-29%的BD-Rate降低,超过了大多数测试视频的先前方法。此外,轻量级的RARN结构可以以实时速度(91 FPS)处理FHD(1080p)内容并获得相当的速率降低。
![](https://i-blog.csdnimg.cn/blog_migrate/a788b5aeef91225c79e975100cbf4622.png)
![](https://i-blog.csdnimg.cn/blog_migrate/96764d0e03e87b156e06767cce2e68ed.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/7743857ccd0b4fe8fc55539f5f660de3.png)
![](https://i-blog.csdnimg.cn/blog_migrate/a365d30c83b075c3cbf73f771d611989.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/a3ae107856fced38e4db785a60e95008.png)
![](https://i-blog.csdnimg.cn/blog_migrate/7894a037ce154c333b3f0425223d0f5a.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/eeefda69933dc4f9fb1a0d3188030760.png)
![](https://i-blog.csdnimg.cn/blog_migrate/10bddb03c9744891577edee731167eff.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/3dfe2abf600164ffafa58df933b42019.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f37f8751fc986c7d7a167338a8316e2d.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/7cec3716e5b630fee6950f2b1f2a1e3f.png)
![](https://i-blog.csdnimg.cn/blog_migrate/e61b6db692b92dedbb7008685956f30a.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/868d6e320a51586c22922f1190835e37.png)
![](https://i-blog.csdnimg.cn/blog_migrate/382ff219a5ff417b3be691134bd533e5.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/17ecfd4277389b356e11c883346fb976.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ee9f9e67698eda29d0873027c7520f47.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/f743da76e486adacbcf5c6988711975d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/4750f593fa27120b3560ef5a4abdf12d.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/272b82238ac6d61666f5169b34d053c2.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ac42dd4505b3835344a486b8f9bbd2e3.webp?x-image-process=image/format,png)
人脸识别
▌A Quality Aware Sample-to-Sample Comparison for Face Recognition
![](https://i-blog.csdnimg.cn/blog_migrate/6b9e0ff9e6c0880d79390abf33d3c81e.png)
![](https://i-blog.csdnimg.cn/blog_migrate/bc4df5455d7c1ad725dafa20a88dcead.webp?x-image-process=image/format,png)
论文作者:Mohammad Saeed Ebrahimi Saadabadi,Sahar Rahimi Malakshan,Ali Zafari,Moktari Mostofa,Nasser M. Nasrabadi
作者单位:West Virginia University
论文链接:http://arxiv.org/abs/2306.04000v1
内容简介:
1)方向:人脸识别
2)应用:提高人脸识别网络对低质量样本的识别能力
3)背景:现有的人脸数据集中高质量样本数量较多,低质量样本数量较少,导致人脸识别网络在训练时无法学习到低质量样本的分布,从而无法很好地识别低质量样本。
4)方法:本文提出一种基于质量感知学习的人脸识别方法(QAFace),将质量感知学习过程融入到分类训练范式中。通过使用质量感知函数,自适应地引导Softmax中心更多地关注低质量样本,从而在更新Softmax分类器时添加了基于质量的调整,提高了对低质量样本的识别能力。同时,QAFace通过使用特征大小作为质量的代理,忽略了无法识别的低质量样本,防止类中心偏离最优方向。
5)结果:在CFP-FP、LFW、CPLFW、CALFW、AgeDB、IJB-B和IJB-C数据集上的广泛实验结果表明,该方法优于现有的算法。
![](https://i-blog.csdnimg.cn/blog_migrate/f5239e80eba1c3a5e766c63d2635c712.png)
![](https://i-blog.csdnimg.cn/blog_migrate/7a7a5488894341a33eecc135d04a6359.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6045f1f2b566ab787b65b3c84489cba3.png)
![](https://i-blog.csdnimg.cn/blog_migrate/4984f2c2f6b847b154e32e9b8f486e47.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/7e95019f2b1a5d9014abde671282f2ce.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1281a4fb2d5de61a47b3234cb5cd21d0.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/e3b85ac92bc39e6faa8128bee1d7572d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6c3c0c489a5cb1dba3924c5f424a8ea3.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/5f39faace8e8fa42f6acb1fb2cb61912.png)
![](https://i-blog.csdnimg.cn/blog_migrate/beac712f1dda07fe8c4104c433cfa5e0.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/9809fa94fac3ebab1771d04b26ecb601.png)
![](https://i-blog.csdnimg.cn/blog_migrate/acbbccc2f7e29494c468938c74231878.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/444968ef6c8773c05ae2096af413184f.png)
![](https://i-blog.csdnimg.cn/blog_migrate/29102fddafe472aee48a309552afb8fc.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/f18fabdf1bcce7d002c06c62142a4835.png)
![](https://i-blog.csdnimg.cn/blog_migrate/8e7c2bd5bb2bc98a7061e78b598cb91b.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/0178b7c09aebd62f84be66e075979997.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1f7d1f251ea2a5405471f44e94114dfb.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/39a1a0e4376c0edc74c05ec03409f562.png)
![](https://i-blog.csdnimg.cn/blog_migrate/917ff8614374af7c8de8f668e8eebf5f.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/a33a0623066f1b38df74bdc41471985c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/cdfb1caa15819d805fdb32a691e5c921.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/5b319df0d88ea19da1f7b770d92fa3f0.png)
![](https://i-blog.csdnimg.cn/blog_migrate/e32099a0c23c3213036635a02da838b2.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/bc00677b469873d2213fd7bee1c4b9ff.png)
![](https://i-blog.csdnimg.cn/blog_migrate/88b66119ad35656f00d464e65603d3f3.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/0683a50e682aa270c7c7f7e677ab9e15.png)
![](https://i-blog.csdnimg.cn/blog_migrate/4405f13e2ea985657a00f4707ac2c649.webp?x-image-process=image/format,png)
视觉问答(VQA)
▌Q: How to Specialize Large Vision-Language Models to Data-Scarce VQA Tasks? A: Self-Train on Unlabeled Images!
![](https://i-blog.csdnimg.cn/blog_migrate/8f6864186506cff87a47b11aac6ca2c9.png)
![](https://i-blog.csdnimg.cn/blog_migrate/4c9b3c833443b626e4fbfd15f7e92d1c.webp?x-image-process=image/format,png)
论文作者:Zaid Khan,Vijay Kumar BG,Samuel Schulter,Xiang Yu,Yun Fu,Manmohan Chandraker
作者单位:Northeastern University; NEC Labs America; Amazon; UC San Diego
论文链接:http://arxiv.org/abs/2306.03932v1
项目链接:https://github.com/codezakh/SelTDA
内容简介:
1)方向:视觉语言
2)应用:视觉问答(VQA)
3)背景:针对特定任务的VQA数据集通常比通用VQA数据集小得多,因此收集额外的标签可能具有挑战性,但未标记的图像通常是可用的。
4)方法:SelTDA(自学数据增强)是一种策略,用于在小规模VQA数据集上微调大型VLM。SelTDA使用VLM和目标数据集构建教师模型,该模型可以直接在仅有图像的情况下生成问题-答案伪标签,从而使我们能够为未标记的图像生成伪标签。然后,SelTDA在原始数据集上微调初始VLM,该数据集已用新生成的伪标签图像进行了增强。
5)结果:实验表明,SelTDA增加了对对抗搜索问题、反事实示例和改写的鲁棒性,提高了域泛化能力,并导致更好地保留了数值推理技能。该策略不需要额外的标注或架构修改,并且与任何现代编码器-解码器多模态transformer兼容。代码可在https://github.com/codezakh/SelTDA上获得。
![](https://i-blog.csdnimg.cn/blog_migrate/068a746bb3b7df4253c4ea76bb52f6de.png)
![](https://i-blog.csdnimg.cn/blog_migrate/40a6839992c33779cb2891095c3b2684.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/54476e6273308c87ef2fa7e41aab61da.png)
![](https://i-blog.csdnimg.cn/blog_migrate/c9e34d9fc736d80974fcaf741952ad9d.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/dcc152ce3510b0c93b139b79181f3269.png)
![](https://i-blog.csdnimg.cn/blog_migrate/69a8c1920c82f0c5bb6232ba2c43dbeb.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/a50fefb9098d3a03778401f5c3e52eec.png)
![](https://i-blog.csdnimg.cn/blog_migrate/393d15c5fcba0a448e7d3f2eb9bbf619.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/762c26051db4ab3e25016ebe41eaba77.png)
![](https://i-blog.csdnimg.cn/blog_migrate/325c65c09cfa48dbadf30f4ee811d78e.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/4e7f67a8b06b9c09c33767d9437d3999.png)
![](https://i-blog.csdnimg.cn/blog_migrate/4e94c543c2723a36e3b578f7506b2a70.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/85eadf269321a33cd3e6e8601f5f42c9.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d0fbf30438df9848d80269c7d2f97d50.webp?x-image-process=image/format,png)
![](https://i-blog.csdnimg.cn/blog_migrate/c242c951f144e75be823d295e83f302c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/2419f99f8eb5fdbd61b20fa8656ad592.png)
![](https://i-blog.csdnimg.cn/blog_migrate/17c1736b5c07da7085e44aa70af0b054.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6997fec82582c9ea2a37691b07505a73.png)
![](https://i-blog.csdnimg.cn/blog_migrate/f8d7b80319ed9b5c02d79ab7bb4e3e04.png)
![](https://i-blog.csdnimg.cn/blog_migrate/3ec4c08abfef41bf19c99ccc7943e85d.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d64216da43b8e9befa94f2419b6a79da.png)
![](https://i-blog.csdnimg.cn/blog_migrate/65e3737260a42b649f2ffc4bfe270f6a.png)
![](https://i-blog.csdnimg.cn/blog_migrate/0d8494cacbf3abe32006f4b666fbdeb4.png)
![](https://i-blog.csdnimg.cn/blog_migrate/dca2c55c23334492e0f7f563e0f3d6dc.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d88f5ff7cbbf1378dc76ee5b1e723fb3.png)
![](https://i-blog.csdnimg.cn/blog_migrate/d15961e18eef5789f9399293563d78ad.png)
![](https://i-blog.csdnimg.cn/blog_migrate/7ad90b3187a2c8820abbeb5d6570fba7.png)