- 博客(83)
- 资源 (16)
- 收藏
- 关注
原创 60行代码加速20倍: NEON实现深度学习OD任务后处理绘框
首先确定图像的宽度和高度,本次测试所获得的检测框均由这篇博文中的end2end模型中获得【1】,也就是在绘框前,我们会得到一个vector数组,均为通过nms获得的检测框,这个数组数据排列格式如下:一个box对应四个元素,其实box是按照obj的score排列,但为了方便讲解,我们假设他是按从左到右顺序排列,由于测试的图片均为COCO2017 Val中的数据,图片尺寸中值远大于320,为了美观,此篇博文默认绘框边界(边框)的厚度为2,也就是占满2个pixel。
2024-06-13 20:48:41 1087
原创 NEON做色域变化: 用单核性能无限逼近八核并行OpenCV
最近开始接触neon汇编,觉得这个东西在一些应用场景上好用,遂做些记录,分享下自己做的一些工作。
2024-05-20 20:15:15 1015
原创 简单聊聊目标检测新范式RT-DETR的骨干:HGNetv2
本文版权属于GiantPandaCV,未经许可,请勿转账!前几天疯狂刷屏的RT-DETR赚足了眼球,在精度和速度上体现的优势和性价比远远高于YOLO,而今年ChatGPT、Sam的出现,也让一些吃瓜群众知乎CNN没有未来了,今天的文章,我们简单聊一聊RT-DETR的骨干网络,HGNetv2。
2023-04-27 08:27:22 3369 1
原创 YOLOv7-Pose尝鲜,基于YOLOv7的关键点模型测评
目前人体姿态估计总体分为Top-down和Bottom-up两种,与目标检测不同,无论是基于热力图或是基于检测器处理的关键点检测算法,都较为依赖计算资源,推理耗时略长,今年出现了以YOLO为基线的关键点检测器。玩过目标检测的童鞋都知道YOLO以及各种变种目前算是工业落地较多的一类检测器,其简单的设计思想,长期活跃的社区生态,使其始终占据着较高的话题度。...
2022-07-31 23:47:42 6153 23
原创 YOLOv7来临:论文解读附代码解析
官方版的YOLOv7相同体量下比YOLOv5精度更高,速度快120%(FPS),比 YOLOX 快180%(FPS),比 Dual-Swin-T 快1200%(FPS),比 ConvNext 快550%(FPS),比 SWIN-L快500%(FPS)。在5FPS到160FPS的范围内,无论是速度或是精度,YOLOv7都超过了目前已知的检测器,并且在GPU V100上进行测试, 精度为56.8% AP的模型可达到30 FPS(batch=1)以上的检测速率,与此同时,这是目前唯一一款在如此高精度下仍能超过3
2022-07-08 12:38:01 29582 18
原创 目标检测2020-2021
**【GiantPandaCV导语】**目标检测发展迅猛,新的sota网络层出不穷,本文盘点截止2021年12月,在coco test-dev上霸榜的近五年的,且知名度较广的目标检测网络。由于评分条例过多过杂,此处仅使用Box AP.50进行排序,未开源、使用额外数据集的暂不加入文章讨论中。1. Swin Transformer V2: Scaling Up Capacity and Resolutioncode:https://github.com/microsoft/Swin-Transformer
2022-04-10 15:28:37 4990 2
原创 CVPR2022 Oral:StreamYOLO-流感知实时检测器
前言: 自动驾驶技术要求在低延迟时间内得到反馈。过去的工作提出了信息流感知联合评价指标,用于评估算法的延迟和准确性。该论文并没有像以前的工作那样追求精度和速度之间的权衡,而是提出检测模型对于未来的预测是处理这个问题的关键。 我们建立了一个简单而有效的流媒体感知框架。它配备了 一种新的双流感知模块(DFP),其中包括动态流和静态流 来捕捉移动趋势和流预测的基本检测特征。此外,我们引 入了一个趋势感知损失(TAL),并结合了一个趋势因子, 为具有不同移动速度的物体生成自适应权重。我们的简单 方法在Argogrs
2022-04-09 21:50:03 2483 6
原创 YOLOE,2022年新版YOLO解读
前言: 这是2022年第一个关于YOLO的改版,该版本由百度提出,称之为YOLOE,是目前各项指标sota的工业目标探测器,具有高性能且部署相对友好。该检测器的设计机制包括:Anchor free无锚盒机制可扩展的backbone和neck,由CSPRepResStage构成头部机制ET-head动态标签分配算法Task Alignment Learning(TAL)该团队提供了s/m/l/x模型,YOLOE-l在COCO-Test中mAP达到51.1,在V100上可达71.1FPS,相对于Y
2022-03-31 23:36:51 9789 5
原创 工程部署(三):低算力平台模型性能的优化
前言: 此文讨论如何在低端的移动设备上提高模型性能,文章针对模型(不改变模型原有op情况下,不需要重新训练)和后处理两部分的优化开展讲解,若有不当之处,望批评指出!一、模型优化1.1 op融合此处的模型优化指的是我们常说的模型卷积层与bn层的融合或者conection,identity等结构重参化的操作,改想法来源于某天无意参与的一次讨论:大佬的想法认为fuse是可以做的,但没那么必要,fuse(conv+bn)=CB的作用在于其他,而对于提速的作用微乎及微,不过本人更加坚持自己的观点,因为yo.
2022-02-11 23:24:26 2383 4
原创 检测器backbone和neck哪个更重要,达摩院新作有不一样的答案
论文名称《GIRAFFEDET:一种heavy-neck的物体检测新范式》论文地址:https://arxiv.org/pdf/2202.04256.pdf摘要在传统的目标检测框架中,模型从骨干提取深层潜在特征,然后由颈部模块融合这些潜在特征,捕获不同尺度的信息。由于目标检测的对分辨率的要求比图像识别的要大得多,因此骨干网的计算成本往往占据了大部分推理成本。这种重骨干的设计范式在传统图像识别往目标检测发展时遗留了下来,但这种范式并不是针对目标检测的端到端优化设计。在这项工作中,我们证明了这种范式确实只
2022-02-11 23:23:33 1450
原创 工业部署二之PicoDet网络结构在YOLOv5-Lite上的复现
【GiantPandaCV导语】这篇博客仅对PicoDet的网络结构进行复现。PicoDet在一定程度上刷新了业界轻量级移动端模型的sota,这也是我比较感兴趣的地方。本文将PicoDet模型网络结构迁移到yolov5的平台,因为是anchor base的形式,在性能上与原生模型可能有一定的差异,以下是原生模型的性能指标。一、PicoDet介绍Picodet论文在11月放出,后面对模型结构进行了复现,但因为没有显卡,迟迟无法对复现后的模型进行效果检验(现在依旧没有显卡可以跑模型,遂放出代码),这个周末
2021-12-19 22:07:11 2093 5
原创 工程部署(一): 移动端算子的选择
前言:本文首发于GiantPandaCV,未经允许请勿转载此篇博客源于此前和朋友的讨论,在端侧部署、算力较为匮乏的板子上,普遍喜欢使用Relu和LeakyReLU激活函数,而我们常说的类似Sigmoid,Mish函数开销大指的是什么?这篇博客将从实验层面进行剖析,也是之前从零开始学CV之一激活函数篇:https://zhuanlan.zhihu.com/p/380237014的延伸。以下仅代表个人观点,若有不当之处,欢迎批评指出。一、激活函数对于激活函数的详解,网上的资料实在是太多了,在我们日常工作
2021-11-18 09:19:26 573 1
原创 模型剪枝经典论文解读:《Learning Efficient Convolutional Networks through Network Slimming》
Learning Efficient Convolutional Networks through Network Slimming摘要:CNN在落地中的部署,很大程度上受到其高计算成本的限制。在本文中,作者提出一种新的CNN学习方案:1)减少模型大小;2) 减少模型运算内存的占用;3)在不影响准确性的同时,减少计算操作的次数。本文提出一种简单高效的方法,具体通过网络通道的稀疏化来实现的。该方法非常适用于CNN的结构,可将训练的开销降到最低,并且生成的模型不需要特定的软硬件进行加速,部署性能更高
2021-11-11 18:03:20 4900
原创 YOLOv5-Lite:如何让YOLO模型在cpu上加快?
SDKGraphicsCUDADriverToolsSoftwareVideo Codec SDK 9.0Tesla v10010.1NVIDIA Driver 440cmake&gccFFmpegVideo Codec SDK 9.0RTX 2080Ti10.2NVIDIA Driver 440cmake&gccFFmpeg
2021-10-13 23:42:45 6889
原创 YOLOv5-Lite:Repvgg重参化对YOLO工业落地的实验和思考
这一次的实验主要借鉴repvgg重参化的思想,将原有的3×3conv替换成Repvgg Block,为原有的YOLO模型涨点。前言: 之前做了一次shufflenetv2与yolov5的组合,目的是为了适配arm系列芯片,让yolov5在端侧设备上也能达到实时。但在gpu或者npu方面也一直在尝试着实验,对此类实验的目的很明确,要求也不高,主要还是希望yolov5在保持原有精度的同时能够提速。实验这一次的模型主要还是借鉴repvgg重参化的思想,将原有的3×3conv替换成repvgg block,.
2021-09-18 20:16:12 6798 19
原创 YOLOv5-Lite:NCNN+Int8部署和量化,树莓派也可实时
本文版权属于GiantPandaCV,未经允许请勿转载前言: 还记得我在两个月前写的文章吗,关于yolov4-tiny+ncnn+int8量化的详细教程:https://zhuanlan.zhihu.com/p/372278785后来准备写yolov5+ncnn+int8量化的教程,却在yolov5的量化上遇到了麻烦,一方面是量化后速度更慢了,另一方面是精度下降严重,出现满屏都是检测框的现象,后来经过很多尝试,最终都以失败告终。再后来,还是决定换其他方式对yolov5进行量化,一是即使最小的yolo
2021-08-24 10:27:14 15029 32
原创 YOLOv5-Lite:更轻更快易于部署的YOLOv5
本文版权属于GiantPandaCV,未经允许请勿转载前言: 毕设的一部分,前段时间,在yolov5上进行一系列的消融实验,让他更轻(Flops更小,内存占用更低,参数更少),更快(加入shuffle channel,yolov5 head进行通道裁剪,在320的input_size至少能在树莓派4B上一秒推理10帧),更易部署(摘除Focus层和四次slice操作,让模型量化精度下降在可接受范围内)。一、消融实验结果比对IDModelInput_sizeFlopsParamsSi.
2021-08-19 11:07:02 19397 53
原创 从零开始学CV之二损失函数篇(4)
注:本篇博客大部分内容并非原创,而是本人将之前收藏的资料整理,并加以自己的愚解整合成到一起,方便回顾复习,所有参考资料均已注明出处,并已点赞加收藏~续:从零开始学CV之二损失函数篇(3)1.3 Sphereface该Sphereface最早提出于CVPR 2017的《SphereFace: Deep Hypersphere Embedding for Face Recognition》,其也称A-Softmax损失函数,论文链接:https://arxiv.org/abs/1704.08063作.
2021-06-30 18:06:19 835 1
原创 从零开始学CV之二损失函数篇(3)
注:本篇博客大部分内容并非原创,而是本人将之前收藏的资料整理,并加以自己的愚解整合成到一起,方便回顾复习,所有参考资料均已注明出处,并已点赞加收藏~前言: 上篇我们讲完了图像分类、目标检测常用的损失函数,这篇我们继续往下讲,主要讲的是人脸识别的损失函数。人脸识别算是CV落地最成熟的一个方向了,损失函数对于人脸模型来说实在是太重要了,常见的人脸识别框架facenet、insightface都会在论文里面花大篇幅去介绍它们的损失函数。那么这一章,我们按照softmax→Triplet Loss→Cent.
2021-06-30 17:47:32 782
原创 从零开始学CV之二损失函数篇(2)
注:本篇博客大部分内容并非原创,而是本人将之前收藏的资料整理,并加以自己的愚解整合成到一起,方便回顾复习,所有参考资料均已注明出处,并已点赞加收藏~前言: 续从零开始学CV之二损失函数篇(上)2.2.3 IoU Loss(Intersection-Over-Union,交并比函数)该方法由旷视提出,发表于2016 ACM,论文链接:https://arxiv.org/pdf/1608.01471.pdf通过4个坐标点独立回归Building boxes的缺点:(1)检测评价的方式是使用IoU,.
2021-06-30 17:30:03 402 1
原创 从零开始学CV之二损失函数篇(1)
注:本篇博客大部分内容并非原创,而是本人将之前收藏的资料整理,并加以自己的愚解整合成到一起,方便回顾复习,所有参考资料均已注明出处,并已点赞加收藏~前言: 在深度学习中,损失函数扮演着重要的角色。通过损失函数可以使模型达到收敛状态,减少模型预测值的误差。因此,不同的损失函数对模型的影响是也是有差异的(调参师的日常工作之一)。在这一篇章节,我们会讲解什么是损失函数,图像分类、目标检测、人脸识别分别有哪些常见的损失函数,具体的特点在哪~1. 什么是损失函数概括来说,损失函数(loss function).
2021-06-30 17:00:08 768 1
原创 从零开始学CV之一激活函数篇(Activation Function)
前言:相信很多接触过cv的同学都有去研究过激活函数,激活函数相对于一个神经元来说是非常重要的,一个好的激活函数可以让你的模型得到质的飞跃,那到底什么是激活函数?常见的激活函数有哪些?它们的优缺点是什么?1. 什么是激活函数?相信大家高中生物都有学过神经系统,其实神经网络借助了生物学对脑神经的研究成果,我们拿一个生物大脑的神经元打个比方~分叉凸起的部分是树突也叫突触,它用来接收外界传入的电信号,突触包围着的就是神经元,它把突触接收到的信号(多个电信号,类似多个inputs)整合成一个反馈信息。但是.
2021-06-30 16:28:32 1553
原创 基础练习12-十六进制转八进制(python答案)
基础练习 十六进制转八进制问题描述 给定n个十六进制正整数,输出它们对应的八进制数。 输入格式 输入的第一行为一个正整数n (1<=n<=10)。 接下来n行,每行一个由0{9}、大写字母{A}F组成的字符串,表示要转换的十六进制正整数,每个十六进制数长度不超过100000。输出格式 输出n行,每行为输入对应的八进制正整数。 注意 输入的十六进...
2021-06-17 09:48:51 727 3
原创 从零开始学人脸检测之Retinaface篇(内含魔改版GhostNet+mbv2)
前言Retinaface是Insightface团队在2019年提出的新人脸检测模型,该模型在 WiderFace 数据集上刷新了AP。源代码开源于insightface,原模型使用mxnet框架进行搭建,目前社区也有其他框架复现的版本,最让人熟知的莫过于pytorch版的retinaface。Retinaface是基于检测网络RetinaNet的改进版(没错,和centerface基于centernet类似),添加了SSH网络的三层级联检测模块,提升检测精度。作者提供了两种网络的复现版本(mobilen
2021-06-13 00:35:51 9233 10
原创 小白教程:树莓派3B+onnxruntime+scrfd+flask实现公网人脸检测系统
前情提要;最近出了一个新的人脸检测框架scrfd,scrfd的论文在5月10日挂在了阿凯上,感兴趣的同学们可以去看一看https://arxiv.org/abs/2105.04714新出的scrfd旨在实现模型效能的极致均衡:(Extensive experiments conducted on WIDER FACE demonstrate the state-of-the-art efficiency-accuracy trade-off for the proposed \scrfd family.
2021-06-06 16:21:57 4718 4
原创 NCNN+Int8+YOLOv4量化模型和实时推理
BatchCropCorrosionBackground segmentationinput_sizeRun time@(per sample)@Accuracy100√√6402.9s89.17500√√6402.8s89.741000√√6402.4s90.112000√√6402.3s90.13点裁消融Background segmentationinput_sizeRun time...
2021-05-15 22:59:51 5258 17
原创 dnn+yolo+flask推理(树莓派实时推流—内含YOLO全家桶系列)
DNN-Lightweight-Streaming这个资源库记录了在一些超轻量级网络上推送视频流的过程。一般的步骤是,opencv调用板子(比如树莓派)的摄像头,将检测到的实时视频传输到yolo-fastest、nanodet、ghostnet等超轻量级网络上,然后讲使用flask轻量级框架将处理后的视频帧推送到网络上,基本上可以保证实时性能。并且,这个仓库也记录一些侧端推理框架的性能,感兴趣的网友可以交流。仓库链接:https://github.com/pengtougu/DNN-Lightweig
2021-05-08 17:53:59 4380 1
原创 Yolo-fastest+dnn+flask实现移动端推流&拉流并在web显示
转载请注明出处!转载请注明出处!转载请注明出处!已经两三点了,太困了,直接github上的readme复制过来,周末有点无聊,做了一个推拉流的demo,共四个功能:①图片推理②视频推理和保存③摄像头本地推理(不加保存了,有点费内存)④移动端(树莓派,或其他开发板)调用摄像头并对流帧进行推理,通过flask推流到局域网,局域网下的其他设备拉流并显示在web页面上代码基本不用改,down下来即可运行,已在window&mac&linux三种平台上测试过,代码通用。推拉流那个,请保
2021-04-18 01:51:53 3720 13
原创 CNN经典之VGG网络+PyTorch复现
一、前情说明:写在前面的话本系列博客在于汇总CSDN的精华帖,类似自用笔记,方便以后的复习回顾,博文中的引用都注明出处,并点赞收藏原博主。博客大致分为两部分,第一部是转载于《雪饼》大侠的博客https://blog.csdn.net/rogerchen1983/article/details/79549085(值得推荐,深入浅出,但少部分涉及较深或者错误的没贴出),第二部分是对网络的复现,代码主要参考bilibili大神《霹雳吧啦Wz》https://github.com/WZMIAOMIAO/dee
2020-07-26 23:28:08 3812 6
原创 CNN经典之AlexNet网络+PyTorch复现
一、前情说明:写在前面的话本系列博客在于汇总CSDN的精华帖,类似自用笔记,不做学习交流,方便以后的复习回顾,博文中的引用都注明出处,并点赞收藏原博主。本博客大致分为两部分,第一部是转载于其他平台的关于LeNet的讲解,第二部分是自己对网络的复现,包括:数据集加载和预处理,网络构建,模型测试等二、论文解读:三、模型构建与结果展示:3.1 下载数据集集:'http://download.tensorflow.org/example_images/flower_photos.tgz
2020-06-24 10:58:49 2982 10
原创 python+mysql搭建信息管理系统(内含源码)
一、环境开头直接交代环境了python 3.6pyqt5hashlibsipsystime都是小包,容易倒,一般不会遇到坑,这里不做过多介绍。二、搭建步骤与代码实例首先需要一个主控台,界面如下:...
2020-06-20 21:16:07 13654 158
转载 吴恩达深度学习笔记(81)--为什么使用卷积?(Why convolutions?)
写在前面的话本系列博客在于汇总CSDN的精华帖,类似自用笔记,不做学习交流,方便以后的复习回顾,博文中的引用都注明出处,并点赞收藏原博主。吴恩达深度学习笔记(81)-为什么使用卷积?(Why convolutions?)为什么使用卷积?(Why convolutions?)我们来分析一下卷积在神经网络中如此受用的原因,然后对如何整合这些卷积,如何通过一个标注过的训练集训练卷积神经网络做个简单概括。和只用全连接层相比,卷积层的两个主要优势在于参数共享和稀疏连接,举例说明一下。假设有一张32×32×
2020-06-09 23:51:56 539 1
原创 CNN经典之LeNet网络+PyTorch复现
一、前情说明:写在前面的话本系列博客在于汇总CSDN的精华帖,类似自用笔记,不做学习交流,方便以后的复习回顾,博文中的引用都注明出处,并点赞收藏原博主。本博客大致分为两部分,第一部是转载于其他平台的关于LeNet的讲解,第二部分是自己对网络的复现,包括:数据集加载和预处理,网络构建,模型测试等二、CNN经典模型:LeNet近几年来,卷积神经网络(Convolutional Neural Networks,简称CNN)在图像识别中取得了非常成功的应用,成为深度学习的一大亮点。CNN发展至今,已经有
2020-06-09 23:22:00 1512 1
原创 Pytorch学习之Cifer实战四·激活函数+损失函数+优化器详解
最后插个小彩蛋,还是转了陶将博主的一张图:下图是各个算法在等高线的表现,它们都从相同的点出发,走不同的路线达到最小值点。可以看到,Adagrad,Adadelta和RMSprop在正确的方向上很快地转移方向,并且快速地收敛,然而Momentum和NAG先被领到一个偏远的地方,然后才确定正确的方向,NAG比momentum率先更正方向。SGD则是缓缓地朝着最小值点前进。这一章节参考的博文如下:https://pytorch-cn.readthedocs.io/zh/latest/package_...
2020-06-06 23:46:09 510
原创 Pytorch学习之Cifer实战一·系列说明
注:本系列博客在于汇总CSDN的精华帖,类似自用笔记,不做学习交流,方便以后的复习回顾,博文中的引用都注明出处,并点赞收藏原博主Cifer实战系列共分为七部分,这是第一部分,由于博主的系列博客被爬虫恶意转载,故接下来的系列文章都采用PDF或者图文形式发布,感兴趣的小伙伴可以在下方留言找我拿源码,十分感谢大家~参考书籍:深度学习框架Pytorch入门与实践 陈云·编著参考博文:知乎,CSDN,博客园环境:python 3.6.5torch 1.1.0torchvision 0.3.0
2020-06-05 14:30:16 523 1
CIFER-10.py
2020-06-08
syn-comp-adobe-trainset-20200511T154125Z-001.zip
2020-05-13
syn-comp-adobe-20200511T154047Z-001.zip
2020-05-13
real-hand-held-20200511T154014Z-001.zip
2020-05-13
real-fixed-cam-20200511T153915Z-001.zip
2020-05-13
Background-Matting-master.zip
2020-05-13
models.zip
2020-05-13
深度学习yolo框架yolov3.7z
2020-03-19
行人的数据集(1000+图片).zip
2020-03-12
vgg19_conv.pkl.bz2
2019-11-23
ne4x-photo-default-0.3.pkl.bz2
2019-11-23
ne1x-photo-repair-0.3.pkl.bz2
2019-11-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人