![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 58
liiiiiiiiiiiiike
这个作者很懒,什么都没留下…
展开
-
YOLOv7的一些理解
YOLOv7原创 2022-07-26 20:54:18 · 2599 阅读 · 0 评论 -
End-to-End Object Detection with Transformers(DETR)论文阅读与理解
DETR原创 2022-06-30 17:40:11 · 851 阅读 · 0 评论 -
CNN优化trick
训练trick原创 2022-06-22 20:48:52 · 216 阅读 · 0 评论 -
不同CV任务的标注类型
CV任务中,图像标注是有助于计算机更好的理解图像。计算机会根据已知标签信息,从数据种学习出适用新数据识别的相似规则。边界框是最常见的图像标注类型。正如其字面意思一样,标注者需要根据具体要求在目标物体周围画一个方框。可以使用边界框来训练目标检测模型。多边形掩膜(mask)主要用于标注具有不规则形状的目标。标注者必须以高精度标注出图像中目标的边界,从而清楚地了解目标的形状和大小。不同于标注框标注方式,可以框选目标周围不必要区域从而有可能在某些任务中影响模型的训练,多边形标注由于有着较高的标注精度其在任务中原创 2022-06-04 21:26:21 · 1038 阅读 · 1 评论 -
全局池化–Pytorch
全局池化原创 2022-06-01 19:25:28 · 4339 阅读 · 0 评论 -
Inductive bias的一些理解
Inductive bias 归纳偏置在机器学习中是一种很微妙的概念:在机器学习中,很多算法会对一些问题做出假设,这些假设就称为归纳偏置。归纳:从一些例子中寻找共性,泛化,形成一个比较通用的规则规程偏置:我们对模型的偏好因此,归纳偏置可以理解为,从现实生活中观察到的现象中归纳出的一定规则,然后对模型做一定的约束,从而可以起到“模型选择”的作用,即从假设空间中选择出更符合现实规则的模型。归纳偏置在机器学习中几乎无处不见:奥卡姆剃刀:如无必要,勿增实体KNN中假设特征空间中相邻样本倾向于属原创 2022-05-24 20:46:31 · 308 阅读 · 0 评论 -
梯度下降法的原理以及python伪代码
梯度下降法博主的理解:y = w x + b, 如果y和真实差距太大,说明w起作用太大了,这个时候我们利用梯度去控制一下。(浅显理解)什么是损失函数用于衡量模型对任何给定数据的性能。损失函数将预测值与期望值之间的误差进行量化,并以单个实数的形式表示出来。整个流程就是,对w进行初始化,然后计算预测值y,接着计算损失函数,为了让损失函数最小,利用梯度下降法对给定w进行参数修正。那什么是梯度下降法呢博主的理解:假如你在珠穆朗玛峰上,而你想下到山底,此时的下山的过程就是梯度下降法的流程,山坡的斜率为梯度原创 2022-05-22 21:30:11 · 2251 阅读 · 0 评论 -
算法落地的一些总结
根据博主自己算法落地和一些其他博主的总结面试的时候,面试官特别讨厌直接使用paperswithcode上SOTA模型,如果该模型work的话,就直接用,并没有思考该模型为什么适用于特征任务,因此尝试法并不可取,这也是本博文的初衷。1、熟悉数据吴恩达:80%数据 + 20%的模型 = 更好的AI对于新的项目任务来说,第一步就是需要熟悉数据,例如检测任务,可以写一个可视化代码查看标注是否合理,查看一下待检测物体的大小分布情况(方便anchor设定),查看图片大小,查看类别分布情况(是否出现长尾现象)等等原创 2022-05-18 21:22:34 · 1044 阅读 · 0 评论 -
DeepLab系列解读
DeepLab系列Google团队提出的一系列图像分割算法,V1版本在2014年提出。并在VOC2012取得第二名的乘积,陆续推出了v2,v3和v3+ 版本。DeepLabv1创新点:使用空洞卷积(Atrous convolution)全连接条件随机场(fully connected CRF) 空洞卷积是为了解决编码过程中信号不断被下采样,导致信息丢失的问题,由于卷积层提取到的特征具有平移不变性,这就限制了定位精度,所有v1版本就引入了全连接条件随机场来提高模型捕获局部结构信息的能力。通俗原创 2022-05-11 21:28:48 · 1782 阅读 · 0 评论 -
OpenCV的区域分割、轮廓检测和阈值处理
OpenCVOpenCV是一个巨大的开源库,广泛用于计算机视觉,人工智能和图像处理领域。它在现实世界中的典型应用是人脸识别,物体检测,人类活动识别,物体跟踪等。任务现在,假设我们只需要从整个输入帧中检测到一个对象。因此,代替处理整个框架,如果可以在框架中定义一个子区域并将其视为要应用处理的新框架,该怎么办。我们要完成一下三个步骤:定义兴趣区在ROI中检测轮廓阈值检测轮廓轮廓线什么是ROI?简而言之,我们感兴趣的对象所在的帧内的子区域称为感兴趣区域(ROI)我们如何定义ROI原创 2022-05-08 22:20:20 · 1531 阅读 · 0 评论 -
为什么图像分割任务中经常用到编码器和解码器结构?
图像分割编码器编码器可以视为特征提取网络,通常使用池化层来逐渐缩减输入数据的尺寸大小解码器解码器通过上采样/反卷积等网络层来逐步恢复目标的细节和相应的空间维度。引入池化层可以增加感受野,并能使特征提取聚焦在重要信息中,降低背景干扰,有助于图像分类。然而池化操作使位置信息大量流失,经过编码器提取的特征不足以对像素进行精确分割,这个解码器造成了极大困扰,使得解码器中直接由上采样/反卷积生成的分割图像较为粗糙。因此,一些研究员提出在编码器和解码器之间建立快捷连接,使高分辨率特征信息能够参与后序的解码环节原创 2022-05-07 21:15:26 · 2115 阅读 · 0 评论 -
YOLO、YOLOv2、YOLO9000和YOLOv3的发展过程
YOLOyolo的基本思想是使用一个端到端的CNN直接预测目标的类别和位置,相对two-stage,yolo实时性高,但检测精度低。YOLO每个边界框只预测两个框,主体结构GoogLeNet,由24个卷积层和2个FC层组成。YOLOv2YOLOv2针对yolov1两个缺点:低召回率低定位准确率改进:YOLOv2在卷积层后添加了BN,加快收敛速度,防止过拟合v2的卷积特征提取器在进行检测任务之前,先在高精度图片上调优10个批次,这样能使检测模型提前适应高分辨率图像v2采用k-means原创 2022-05-07 20:59:50 · 595 阅读 · 0 评论 -
R-CNN发展历程及其优缺点
R-CNNR-CNN是第一个将CNN用于目标检测的DL model,主要流程为以下几个部分:使用无监督的选择性搜索(selective search)方法将输入图像具有相似颜色直方图特征的区域进行递归合并,大约产生2000个候选区域将候选区域裁剪成缩放成合适尺寸,并送到一个CNN特征提取网络中进行高层次的特征提取提取到的特征送入到SVM分类器进行分类,以及一个线性回归器进行box位置和大小调整最后通过NMS操作,得到最终的结果SPPNetSPPNet中的SPP是值空间金字塔池化,主要是针对原创 2022-05-06 21:35:51 · 1664 阅读 · 0 评论 -
计算机视觉之Focus层
由于博主最近在写论文,刚好用到了Focus层,特来总结1. 深度学习有哪些下采样的方式?池化操作,1.最大池化 2.平均池化步长大于1的卷积还有Focus层总结一下:最大池化是突出目标特征和边缘细节,而平均池化是平滑,更偏向于背景。但是但是但是!无论哪种池化操作,都是以牺牲部分信息作为代价,来缩小图片尺寸。卷积操作可以获得图像像素之间特征相关性,但是stride > 1会造成相邻像素点特征丢失。2.下采样在NN中的作用? 下采样在神经网络中主要是为了减少参数量达到降维的作用,同时原创 2022-05-06 20:52:09 · 1901 阅读 · 0 评论 -
演示用torchserve来部署模型
演示用torchserve进行pytorch模型部署步骤分为四步:使用docker环境导出模型定义handler保存模型本文使用训练好的ResNet34 进行图像分类的服务1 .使用docker安装torchservepull项目docker环境是复现demo最好的方法之一!!!docker pull pytorch/torchserve:latest2. 导出模型torchserve需要提供一个.mar文件,简而言之,该文件只是把你的模型和所有依赖打包在一起,要进行打包,首先需原创 2022-05-04 20:51:00 · 2413 阅读 · 0 评论 -
改进模型速度/精度的工程方法
提速部分1. 针对感受野的不同,划分大小目标检测网络 同样的任务,可以训练多套网络实现不同感受野,分别处理大目标、小目标。为了检测多尺度目标,模型都会采用类FPN的结果,直接结果就是减少模型的并发性。划分大小网络后,可以减少FPN结构的分支,同时也可以减少训练难度,而且两个网络也可以使用不同的复杂度。2.分区域不同分辨率检测不同远近目标 低分辨率的图片检测近距离目标,用中心区域的高分辨率图片检测远距离目标3.黑白单通道图片输入,提升模型速度 由于cnn层级化结构,运算量往往都是在高分辨率原创 2022-04-21 16:46:07 · 3849 阅读 · 0 评论 -
损失函数总结及pytorch示例
损失函数一句话:损失函数就是计算预测值和真实值之间的误差。损失函数可以分为以下三类:回归损失函数:应用于预测连续的值,如房价,年龄等分类损失函数:用于离散的值,图像分类,图像分割等排序损失函数:用于预测输入数据之间的相对距离下面逐一介绍损失函数L1 loss L1 loss 也称为平均绝对误差(Mean Absolute Error),简称MAE,计算真实值和预测值之间绝对差之和的平均值。应用场合:回归预测# L1 lossinput = torch.randn(3, 5,原创 2022-04-11 19:13:46 · 791 阅读 · 0 评论 -
【DL基础】降低过拟合和欠拟合方法
过拟合过拟合:模型在训练数据上精度越来越高,而在验证数据集上精度越来越差解决方法:数据增强 图像平移,翻转等 利用gan来生成数据降低模型复杂度 神经网络:降低网络层,神经元个数 决策树:降低树的深度,剪枝权重约束 L1和L2正则化集成学习提前终止欠拟合欠拟合:模型不能在训练集上获得足够低的训练误差,也就是无法收敛解决方法:加入新的特征增加模型的复杂度减少正则化项的系数...原创 2022-03-30 20:50:57 · 411 阅读 · 0 评论 -
浅谈L1、L2 和Smooth L1 loss
梯度问题当预测框和GT差别过大时,梯度值不至于过大当预测框和GT差别很小的,梯度值足够小下面(1)(2)(3)分别是L2,L1,Smooth L1的损失函数下面(1)(2)(3)分别是L2,L1,Smooth L1损失函数对X求导的结果表达式观察(4),当 X增大时 L2 损失对 X 的导数也增大。这就导致训练初期,预测值与groud truth差异过于大时,损失函数对预测值的梯度十分大,训练不稳定。观察(5),L1对X的导数为常数,这就导致训练后期,预测值与GT差异很小的时候,仍会保原创 2022-03-24 10:16:30 · 684 阅读 · 0 评论 -
【leetcode】239. 滑动窗口最大值
题目描述:给你一个整数数组 nums,有一个大小为 k 的滑动窗口从数组的最左侧移动到数组的最右侧。你只可以看到在滑动窗口内的 k 个数字。滑动窗口每次只向右移动一位,返回 滑动窗口中的最大值 。解题思路:队列分为 两端队列,两端受限队列等等。创建两个队列分别为queue和res,queue保存nums进来的下标,res保存最终结果queue保存的下标可以用于判断滑动窗口是否满了,已经元素出队详细说明看codeclass Solution: def maxSlidingWindo原创 2022-03-01 10:21:10 · 139 阅读 · 0 评论 -
目标检测Neck总结
特征金字塔 特征金字塔是目前用于目标检测、语义分割、行为识别等方面比较重要的一个部分,对于提高模型性能具有非常好的表现,因为视觉任务中存在不同尺寸的物体,而cnn特征提取层级化结构的特点,因此需要在不同level层检测不同尺寸大小的物体。特征金字塔具有在不同尺度下有不同分辨率的特点,不同大小的目标都可以在相应的尺度下拥有合适的特征表示,通过融合多尺度信息,在不同尺度下对不同大小的目标进行预测,从而很好地提升了模型的性能。两种构建特征金字塔的方式:通过多次降采样生成不同分辨率的层构成,这种方式应用比原创 2022-02-28 11:08:19 · 2029 阅读 · 0 评论 -
解读batch normalization的优缺点
batch normalization Batch Normalization确实是深度学习领域的重大突破之一,也是近年来研究人员讨论的热点之一。Batch Normalization是一种被广泛采用的技术,使训练更加快速和稳定,已成为最有影响力的方法之一。然而,尽管它具有多种功能,但仍有一些地方阻碍了该方法的发展,因此在一些特定业务上需要采用其他归一化的方法。什么是batch normalization 在训练过程中,当我们更新之前的权值时,每个中间激活层的输出分布会在每次迭代时发生变化。这种现原创 2022-02-26 18:34:45 · 756 阅读 · 4 评论 -
解决工业缺陷检测小样本问题
工业场景收集数据的难点: 在某些高度自动化的生产场景中,产品的良率特别高,收集缺陷样本非常耗时,而当前的用于缺陷检测的深度学习方法大多是基于大量缺陷样本建立模型,缺陷样本的缺乏导致模型难以上线。针对某些行业比如汽车行业的多型号小批量生产场景(每种型号产品只生产几天),在完成缺陷样本收集前某种型号产品已经不再生产了,这种场景下大量的缺陷样本收集是不可能的。此外,由于缺陷是由生产过程中的非受控因素产生的,缺陷的形态是多种多样的,各种形态的样本很难收集完整,这也限制了深度学习在工业检测领域的应用。1. 小样原创 2022-02-25 10:19:47 · 2194 阅读 · 0 评论 -
目标检测模型回归anchor偏移量等问题
为什么要学习偏移而不是实际值? Anchor已经粗略地“框住了”输入图像中的目标,明显的一个问题是:框的不够准确。因为受限于Anchor的生成方式,Anchor的坐标永远都是固定的那几个。所以,如果我们需要预测相对于Anchor的offset,那么,就可以通过预测的offset调整锚框位置,从而得到更精准的bounding box。为什么要学习偏移系数而不是偏移量? 因为w和h都是正数,而网络的最后一层回归输出的时候无法保证正负的,所以最简单的方法就是对预测输出求exp,这样就保证了预测值恒为正,原创 2022-02-23 16:56:25 · 1052 阅读 · 0 评论 -
制作目标检测训练样本的方案
1.做感受野分析,确定能够检测目标边长范围这一步得自己算。现成的网络都能搜到别人算好的结果,拿来直接用。2. 用最终特征图的尺寸反推训练样本图像的尺寸这一步也得自己算。有了目标边长范围,选择大于目标框最大边长2倍左右的训练样本图像的尺寸。3. 对原始样本图像进行旋转和成像效果变换增广这一步得写代码。目前广泛使用的正框样本库,旋转之后范围框更加不准,没得意义。如果自己要做样本记得一定要用倾斜范围框去标注,这样才能做旋转样本增广,从倾斜范围框生成的正框准一些。旋转增广有现成的工具可以用,但是都是基于正原创 2022-02-22 20:25:22 · 777 阅读 · 0 评论 -
图像感受野的一些理解
感受野是直接或者间接参与计算特征图像素值的输入图像像素的范围,直接感受野就是卷积核大小,随着卷积层数的加深之前层次的感受野会叠加进去。感受野小了缺乏环境信息,感受野大了引入太多环境干扰,所以一个网络能够检测的目标框范围与特征图像素或者特征向量的感受野有关,通常能够检测的目标框边长范围是感受野边长的0.1-0.5倍。详细结论参考论文:Understanding the effective receptive field in semantic image segmentation原创 2022-02-22 20:11:34 · 522 阅读 · 0 评论 -
A ConvNet for the 2020s的总结
A ConvNet for the 2020s 博主看了论文和一些大佬总结的博客文档,可以总结的是FAIR团队真是太有钱了,真是做了大量的实验才能总结出这一个调参后的模型,把ResNet从76.1一步步干到82.0,让CNN框架又看到了一些希望啊!76.1 -----> 82.0可以看到真的是堆叠了大量tricks,炼丹人真的不容易哦1. 训练策略优化这一部分从76.1提升到78.8,DL发展了这么久,各种训练策略都在各种花式更新中,2021年timm和torchvi原创 2022-02-18 11:15:05 · 1070 阅读 · 0 评论 -
样本不均衡的问题
一、样本不均衡简介1.1 样本不均衡现象样本(类别)样本不平衡(class-imbalance)指的是分类任务中不同类别的训练样例数目差别很大的情况,一般地,样本类别比例(Imbalance Ratio)(多数类vs少数类)明显大于1:1(如4:1)就可以归为样本不均衡的问题。现实中,样本不平衡是一种常见的现象,如:金融欺诈交易检测,欺诈交易的订单样本通常是占总交易数量的极少部分,而且对于有些任务而言少数样本更为重要。1.2 不均衡的根本影响 很多时候我们遇到样本不均衡问原创 2022-01-26 11:56:51 · 4304 阅读 · 0 评论 -
FCOS中相较传统anchor-based方法中独特的地方
论文链接:FCOS原文论文代码:FCOS代码FCOS是anchor-freed one-stage 目标检测器,首先使用Backone CNN(用于提取特征的主干架构CNN),另s为feature map之前的总步伐FCOS与anchor-based方法不同的地方anchor-based方法是利用backbone,neck,head计算后得到feature map,然后通过预设的先验框进行回归分类,而FCOS得到featuremap后,将featuremap上的点映射回原图上,映射回原图上的坐标点原创 2022-01-15 15:51:26 · 1766 阅读 · 0 评论 -
归纳AI数据增强的方法
数据、算法、算力是人工智能发展的三要素。数据决定了Ai模型学习的上限,数据规模越大、质量越高,模型就能够拥有更好的泛化能力。然而在实际工程中,经常有数据量太少(相对模型而言)、样本不均衡、很难覆盖全部的场景等问题,解决这类问题的一个有效途径是通过数据增强(Data Augmentation),使模型学习获得较好的泛化性能。1. 数据增强介绍数据增强(Data Augmentation)是在不实质性的增加数据的情况下,从原始数据加工出更多的表示,提高原数据的数量及质量,以接近于更多数据量产生的价值。其原原创 2022-01-12 13:55:12 · 529 阅读 · 0 评论 -
Swin Transformer网络架构、相应改进模块的理解
swin-TransformerTransformer越来越火,个人感觉基于Transformer来做视觉真是把矩阵用得出神入化!!Swin-Transformer相较于VIT改进的方法:SwinT使用类似CNN中层次化构建方法,这样的backbone有助于在此基础上构建检测和分割任务,而VIT中是直接一次性下采样16倍,后面的特征图都是维持这个下采样率不变。在SwinT中使用Windows Multi-head Self-Attention(WMSA)的概念,在上图中4倍下采样和8倍下采样中,原创 2022-01-06 14:32:20 · 9000 阅读 · 2 评论 -
vit源码中to_patch_embedding理解
self.to_patch_embedding = nn.Sequential( Rearrange('b c (h p1) (w p2) -> b (h w) (p1 p2 c)', p1 = patch_height, p2 = patch_width), nn.Linear(patch_dim, dim), )Rearrange是einops中的一个方法einops:灵活和强大的张量操作,可读性强和.原创 2022-01-04 10:45:18 · 1805 阅读 · 1 评论 -
YOLSO: You Only Look Small Object
按照李沐老师阅读论文的方法!!!(1)读abstract和introduction(2)读conclusion(3)看论文中model架构和实验结果图(4)再读剩下的重点: 一般读1,2,3如果你发现论文差不多看懂了,可以不用读下去了,但是如果你很感兴趣的话,可以再去读(4)这个部分,这里面有每个结构的详细介绍作者是基于yolov3 为baseline的改进的点:backbone中加入了HSSC moduleFPN中在每层特征图融合的地方加入额外的操作,作者起名为FPE,也就是Fe原创 2021-12-30 17:34:19 · 1615 阅读 · 0 评论 -
神经网络上插入注意力机制模块为什么精度不升反降?
1. 模型是否欠拟合或者过拟合?我们都知道如果一个模型的参数量过大而且数据集量很少的时候,这样的模型很容易学的过拟合!!!所以在添加注意力module的时候一定要注意模型是否过拟合!因为大部分注意力module都是带有一定的参数!(1)如果添加attention前模型处于欠拟合状态,那么增加参数是有利于模型学习的,性能会提高。(2)如果添加attention前模型处于过拟合状态,那么增加参数可能加剧过拟合问题,性能可能保持不变或者下降。2. 从模型的感受野来思考我们都知道是CNN是通过级联的方原创 2021-12-26 20:00:08 · 4146 阅读 · 0 评论 -
IOU_GIOU_DIOU_CIOU_EIOU优缺点总结
IOUGIOUDIOUCIOUEIOU优点IOU算法是目标检测中最常用的指标,具有尺度不变性,满足非负性;同一性;对称性;三角不等性等特点。GIOU在基于IOU特性的基础上引入最小外接框解决检测框和真实框没有重叠时loss等于0问题。DIOU在基于IOU特性的基础上考虑到GIOU的缺点,直接回归两个框中心点的欧式距离,加速收敛。CIOU就是在DIOU的基础上增加了检测框尺度的loss,增加了长和宽的loss,这样预测框就会更加的符合真实框。EIOU在CIOU的基础上分别...原创 2021-12-13 13:19:46 · 11518 阅读 · 2 评论 -
基于HSV空间的光影检测
当背景图和当前图出现光影(突然变暗,强光等):采用HSV颜色空间可以很好的判断,H表示色调,S表示饱和度,V表示亮度,事实上,在背景区域发生光影变化并不会显著改变其色调和饱和度,只会在一定范围内波动,但是颜色的亮度信息受光照和阴影的影响较大。...原创 2021-10-26 14:52:41 · 592 阅读 · 1 评论 -
可分叉网络
可分叉网络这是一个在推理时动态变化的网络结构设计思路:在不同样本所需的计算量不同,例如简单样本仅需要少量计算就可以得出正确样本,复杂的样本则需要更多的计算量。但是如何判断该样本符合提前结束的条件呢?在提出该想法的论文中,作者采用了分类信息熵,一旦该通道的分类信息熵低于某一阈值,说明已经有很高的置信度获得了分类的结果,直到最终的通道。在训练的时候,每一个通道都会对损失有贡献,越靠近浅层的网络权重越大,多通道的损失不仅增强了梯度信息,也在一定程度上实现了正则化。将BranchyNet的设计思想用于原创 2021-10-25 10:03:46 · 167 阅读 · 0 评论 -
浅谈Dropout在训练和预测的一些理解
DropoutDropout是hinton老爷子提出的,他提出时认为Dropout在每一次迭代中让一部分神经元不参与计算和梯度更新,因此每一次迭代都等于一个新的子网络,dropout是可以让很多网络达到ensemble的效果,后面有人证明到dropout实际上是一种正则化的手段,博主认为:dropout在每一次迭代中随机不更新一些神经元,实际上等价于参数减少防止过拟合,以防网络过多学习样本,每一次迭代都让一部分神经元失活都可以等价于给网络增加一些噪音。--------------------------原创 2021-10-22 11:29:54 · 772 阅读 · 0 评论 -
context augmentation and feature refinement network for tiny object detection的一些理解
abstract本文提出了一种结合增强上下文和细化特征的特征金字塔,将多尺度扩张卷积得到的特征自上向下融合注入特征金字塔,不同上下文信息,引入通道和空间特征细化机制,抑制多尺度特征融合中的冲突形成,防止微小目标消失在冲突信息中,此外提出了一种copy-reduction-paste的数据增强方法,该方法可以增加微小对象在训练过程中损失的贡献,确保训练更加均衡。直接重点!!!本文是针对FPN来进行改进的,改进网络结构如下图:CEM模块CEM的灵感来自于人类识别物体的模式,例如在非常高的天空中,人类原创 2021-10-19 14:41:28 · 3895 阅读 · 10 评论 -
SimOTA的简单理解
SimOTAsimOTA的作用是为不同目标设定不同的正样本数量,例如蚂蚁和西瓜,传统的正样本分配方案常常为同一场景下的西瓜和蚂蚁分配同样的正样本数,那要么蚂蚁有很多低质量的正样本,要么西瓜仅仅只有一两个正样本。对于哪个分配方式都是不合适的。SimOTA出现在yolox中,首先会计算一个cost代价矩阵,代表每个真实框和每个特征点之间的代价关系,Cost代价矩阵由三个部分组成:(1)每个真实框和当前特征点预测框的重合程度;(2)每个真实框和当前特征点预测框的种类预测准确度;(3)每个真实框的中心是否原创 2021-09-18 18:02:24 · 10830 阅读 · 3 评论