视觉
文章平均质量分 92
秃头小苏
但凡凭努力就可以做到的事,就算不上困难吧!
展开
-
关键点检测——HRNet源码解析篇
Hello,大家好,我是小苏👦🏽👦🏽👦🏽在上一节中,我已经为大家介绍HRNet的原理部分,其实说起来挺惭愧,因为原理部分介绍的还是比较简单的,我想你仅仅阅读原理部分是很难彻底弄明白HRNet的精髓。那么本节将在上一节的基础上,为大家更细致的讲解HRNet。🧨🧨🧨当然了,本节属于源码解析篇,所有会存在比较多的代码,大家也不用担心看不懂,我都对关键代码做了详细的解释,并画图进一步帮助大家理解,所以大家一定要耐心看下去喔。🎯🎯🎯。原创 2024-08-26 21:51:37 · 1078 阅读 · 2 评论 -
关键点检测——HRNet原理详解篇
Hello,大家好,我是小苏👦🏽👦🏽👦🏽今天我打算来给大家介绍一个新的专题——姿态估计。先让我来搜搜姿态估计,看看百度出来的结果,如下:看到这些图,我觉得大家应该还是蛮熟悉的。这些都在对人体关键点进行检测,在计算机视觉领域,关键点检测是一个非常常见的任务,那么他和姿态估计有什么差异呢?我谈谈我的理解,它们之间确实是存在一定的区别,我感觉用“使用关键点检测技术来实现姿态估计”这句话来表示它们的关系是比较贴切的。也就是说,关键点检测是一项技术,而姿态估计是一种应用。原创 2024-08-26 21:46:20 · 1076 阅读 · 0 评论 -
关键点检测标注文件解析(姿态估计)——COCO数据集
Hello,大家好,我是小苏👦🏽👦🏽👦🏽最近在学习关键点检测的知识,其中用到了COCO数据集中的关键点标注数据,自己对其不是特别熟悉,于是学习了一下,在此记录。🍋🍋🍋我认为阅读一个代码或者看一个项目源码时,充分了解其数据集的结构是十分有必要的,如果你也对COCO关键点检测的标注信息不是很熟悉的话,这篇文章将会对你有帮助。🥂🥂🥂话不多说,让我们一起来看看叭~~~🚖🚖🚖。原创 2024-08-26 21:41:43 · 1175 阅读 · 0 评论 -
深度学习语义分割篇——LR-ASPP原理详解+源码实战
Hello,大家好,我是小苏👦🏽👦🏽👦🏽在之前我为大家介绍过DeepLab系列的三篇文章,大家还记得嘛,不记得的可以点击下面链接看一看喔。✨✨✨深度学习语义分割篇——DeepLabV1原理详解篇🍁🍁🍁深度学习语义分割篇——DeepLabV2原理详解篇🍁🍁🍁深度学习语义分割篇——DeeplabV3原理详解+源码实战🍁🍁🍁今天为大家带来的同样也是语义分割网络——LR-ASPP,本文会结合源码为大家介绍LR-ASPP的结构,让大家对其有一个更加清晰的认识。兄弟萌,准备好了嘛,我要开始发车了喔~~~🚖🚖🚖。原创 2024-08-26 21:37:08 · 850 阅读 · 0 评论 -
深度学习语义分割篇——DeeplabV3原理详解+源码实战
Hello,大家好,我是小苏👦🏽👦🏽👦🏽前面两节已经为大家讲解了DeepLabV1和DeepLabV2网络,还不熟悉的点击下面链接了解详情喔。🌴🌴🌴深度学习语义分割篇——DeepLabV1原理详解篇🍁🍁🍁深度学习语义分割篇——DeepLabV2原理详解篇🍁🍁🍁今天为大家带来的时Deeolab系列的最后一篇DeepLabV3,会对其原理和源码进行细致的讲解。准备好了的话,就让我们一起出发叭~~~🚖🚖🚖DeepLabV3论文🍵🍵🍵。原创 2024-08-26 21:33:07 · 1961 阅读 · 3 评论 -
深度学习语义分割篇——DeepLabV2原理详解篇
Hello,大家好,我是小苏👦🏽👦🏽👦🏽在上一节,我已经为大家介绍了DeepLabV1的原理,还不清楚的赶快点击☞☞☞了解详情。🍍🍍🍍那么这篇就和大家唠唠DeepLabV1的兄弟篇——DeepLabV2。其实呢,你要是清楚DeepLabV1的话,那么DeepLabV2对你来说就是小菜一碟了,改进点是比较少也比较好理解的。话不多说,让我们一起走进DeepLabV2的世界叭~~~🚖🚖🚖DeepLabV2论文🍵🍵🍵。原创 2024-03-28 10:34:32 · 1605 阅读 · 6 评论 -
深度学习语义分割篇——DeepLabV1原理详解篇
Hello,大家好,我是小苏👦🏽👦🏽👦🏽深度学习语义分割篇——FCN原理详解篇🍁🍁🍁深度学习语义分割篇——FCN源码解析篇🍁🍁🍁DeepLabV1原理详解篇,详细介绍DeepLabV1的网络结构和关键创新点。DeepLabV2原理详解篇,详细介绍DeepLabV2的网络结构和关键创新点。DeepLabV3原理详解篇,详细介绍DeepLabV3的网络结构和关键创新点。DeepLabV3源码实战篇,带大家阅读源码,对DeepLabV3有更深入的了解。原创 2024-03-28 10:31:28 · 1639 阅读 · 1 评论 -
Swin Transformer代码实战篇
上一篇我们已经介绍了Swin Transformer的原理,对此还不了解的点击☞☞☞了解详情。此篇文章参考B站UP霹雳吧啦Wz的视频,大家若对Swin Transformer代码没有一点基础,建议先去观看视频。有一说一,这位UP的视频质量做的是真高,到目前为止,我已经不知道推荐过多少次了。但是呢,这部分视频时间确实长,有的地方也难以听懂,所以我听了20分钟就听不下去了,于是自己慢慢的调试起代码,这个过程挺漫长也挺难的,但是你坚持下来就会有所收获。原创 2023-01-20 10:04:37 · 1701 阅读 · 7 评论 -
Swin Transformer原理详解篇
CV攻城狮入门VIT(vision transformer)之旅——近年超火的Transformer你再不了解就晚了!🍁🍁🍁CV攻城狮入门VIT(vision transformer)之旅——VIT原理详解篇🍁🍁🍁CV攻城狮入门VIT(vision transformer)之旅——VIT代码实战篇🍁🍁🍁。原创 2023-01-10 09:20:26 · 4695 阅读 · 12 评论 -
Diffusion Model原理详解及源码解析
Hello,大家好,我是小苏🧒🏽🧒🏽🧒🏽今天来为大家介绍Diffusion Model(扩散模型 ),在具体介绍之前呢,先来谈谈Diffusion Model主要是用来干什么的。🥂🥂🥂其实啊,它对标的是生成对抗网络(GAN),只要GAN能干的事它基本都能干。🍄🍄🍄在之前我已经做过很多期有关GAN网络的教学,还不清楚的可以点击☞☞☞进入专栏查看详情。在我一番体验Diffusion Model后,它给我的感觉是非常惊艳的。我之前用GAN网络来实现一些图片生成任务其实效果并不是很理想,而且往往训练很不稳定。原创 2022-12-31 20:51:39 · 4902 阅读 · 28 评论 -
CV攻城狮入门VIT(vision transformer)之旅——VIT代码实战篇
在上一篇,我们已经介绍了VIT的原理,是不是发现还挺简单的呢!对VIT原理不清楚的请点击☞☞☞了解详细。🌿🌿🌿那么这篇我将带大家一起来看看VIT的代码,主要为大家介绍VIT模型的搭建过程,也会简要的说说训练过程。 这篇VIT的模型是用于物体分类的,我们选择的例子是花的五分类问题。关于花的分类,我之前也有详细的介绍,是用卷积神经网络实现的,不清楚可以点击下列链接了解详情:基于pytorch搭建AlexNet神经网络用于花类识别 🍁🍁🍁基于pytorch搭建VGGNet神经网络用于花类原创 2022-12-04 10:06:08 · 5131 阅读 · 8 评论 -
CV攻城狮入门VIT(vision transformer)之旅——VIT原理详解篇
在上一篇,我已经详细为大家介绍了NLP邻域中的,足足写了10000+字,酝酿了好多天才下笔,也写了很久,自认为写的还算是通俗全面。如若你对Transformer还没什么了解,建议你点击☞☞☞了解详情。 其实,作为CV程序猿的我们,学习NLP邻域的Transformer更像是被迫之举,毕竟现在基于Transformer的算法在CV邻域可谓是大杀特杀。那么今天我就为大家带来将Transformer引入到视觉物体分类中的一篇文章,标题为download📥📥📥。原创 2022-11-30 21:37:08 · 6003 阅读 · 5 评论 -
CV攻城狮入门VIT(vision transformer)之旅——万字长文带你弄透Transformer原理
近年来,VIT模型真是屠戮各项榜单啊,就像是15年的resnet,不管是物体分类,目标检测还是语义分割的榜单前几名基本都是用VIT实现的!!!朋友,相信你点进来了也是了解了VIT的强大,想一睹VIT的风采。🌼🌼🌼正如我的标题所说,作为一名CV程序员,没有接触过NLP(自然语言处理)的内容,这给理解VIT带来了一定的难度,但是为了紧跟时代潮流,我们还是得硬着头皮往transformer的浪潮里冲一冲。那么这里我准备做一个VIT的入门系列,打算一共分为三篇来讲述,计划如下: 那么下面我们就要开始了原创 2022-11-24 10:23:36 · 2719 阅读 · 7 评论 -
对抗生成网络GAN系列——f-AnoGAN原理及缺陷检测实战
深度学习网络原理与实战。目前专栏主要更新了GAN系列文章和Transformer系列文章,都有理论详解和代码实战,文中的讲解都比较通俗易懂,如果你希望丰富这方面的知识,建议你阅读试试,相信你会有蛮不错的收获。🍸🍸🍸[1]对抗生成网络GAN系列——AnoGAN原理及缺陷检测实战[2]对抗生成网络GAN系列——GANomaly原理及源码解析[3]对抗生成网络GAN系列——WGAN原理及实战演练[1]是利用GAN网络实现缺陷检测的开山之作,也算是这篇文章的基础,所以这是你必须要读且要理解透彻的。原创 2022-11-18 08:45:00 · 6488 阅读 · 31 评论 -
对抗生成网络GAN系列——GANomaly原理及源码解析
1]对抗生成网络GAN系列——GAN原理及手写数字生成小案例🍁🍁🍁[2]对抗生成网络GAN系列——DCGAN简介及人脸图像生成案例🍁🍁🍁[3]对抗生成网络GAN系列——CycleGAN原理🍁🍁🍁[4]对抗生成网络GAN系列——AnoGAN原理及缺陷检测实战🍁🍁🍁[5]对抗生成网络GAN系列——EGBAD原理及缺陷检测实战🍁🍁🍁[6]对抗生成网络GAN系列——WGAN原理及实战演练🍁🍁🍁。原创 2022-11-15 10:26:36 · 5724 阅读 · 13 评论 -
对抗生成网络GAN系列——WGAN原理及实战演练
在前面我已经写过好几篇关于GAN的文章,感兴趣的可以点击下列链接了解详情: 在文章[5]的最后,我们从训练结果中可以看出效果并不是很理想,其实难以训练是GAN网络训练普遍存在的问题。本篇文章将为大家带来WGAN(Wasserstein Generative Adversarial Networks ),旨在解决GAN难train的问题。这篇论文中有大量的理论推导,我不会带着大家一个个推,当然很多我也不会,但是我尽可能的把一些关键部分给大家叙述清楚,让大家从心底认可WGAN,觉得WGAN是合理的,是美妙原创 2022-11-10 10:03:05 · 5152 阅读 · 4 评论 -
对抗生成网络GAN系列——EGBAD原理及缺陷检测实战
本文为大家介绍了一种AnoGAN的改进的缺陷检测方法,在训练阶段使用了编码器结构将真实图片映射为潜在变量,测试阶段直接利用训练好的编码器获取潜在变量,大幅度减少了测试所有时间。原创 2022-11-01 21:33:39 · 2185 阅读 · 14 评论 -
对抗生成网络GAN系列——AnoGAN原理及缺陷检测实战
随着深度学习的发展,已经有很多学者将深度学习应用到物体瑕疵检测中,如列车钢轨的缺陷检测、医学影像中各种疾病的检测。但是瑕疵检测任务几乎都存在一个共同的难题——缺陷数据太少了。我们使用这些稀少的缺陷数据很难利用深度学习训练一个理想的模型,往往都需要进行数据扩充,即通过某些手段增加我们的缺陷数据。【数据扩充大家感兴趣自己去了解下,GAN网络也是实现数据扩充的主流手段】上面说到的方法是基于缺陷数据来训练的,是有监督的学习,学者们在漫长的研究中,考虑能不能使用一种无监督的方法来实现缺陷检测呢?原创 2022-10-24 14:40:04 · 9432 阅读 · 24 评论 -
对抗生成网络GAN系列——CycleGAN简介及图片春冬变换案例
在前面我们已经介绍过了最原始的GAN网络和DCGAN,这篇文章我将来为大家介绍CycleGAN,并且基于CycleGAN实现一个小demo——将一张图片进行季节转换,即从冬天变换到夏天和从夏天变换到冬天。🍹🍹🍹 大家已经看到了CycleGAN,应该对GAN已经有了一定的了解,因此我不会对GAN的原理进行详细的讲解,只会叙述CycleGAN的独到之处。对抗生成网络GAN系列——GAN原理及手写数字生成小案例🍁🍁🍁对抗生成网络GAN系列——DCGAN简介及人脸图像生成案例🍁🍁🍁普通马变斑马。原创 2022-10-18 20:03:11 · 6720 阅读 · 6 评论 -
转置卷积详解(原理+实验)
如果你按照我的步骤试了试,可能会发出一些吐槽,这也太麻烦了,我只想计算一下经过转置卷积后特征图的的变化,即知道输入特征图尺寸以及k、s、p算出输出特征图尺寸,这步骤也太复杂了。函数来封装一个转置卷积过程,可以看到我们的输入为[[1,2],[0,1]],卷积核为[[1,0,1],[1,1,0],[0,0,1]],采用k=3,s=2,p=0进行转置卷积。函数,这个函数定义的是一个正常的卷积,输入是理论第2步得到的特征图,卷积核是第三步翻转后得到的卷积核,经过卷积后输出结果如下:结果和前面的一致。原创 2022-10-13 21:44:33 · 3587 阅读 · 2 评论 -
对抗生成网络GAN系列——DCGAN简介及人脸图像生成案例
前段时间,我已经写过一篇关于GAN的理论讲解,并且结合理论做了一个手写数字生成的小案例,对GAN原理不清楚的可以点击☞☞☞跳转了解详情。🌱🌱🌱GAN网络即是通过生成器和判别器的不断相互对抗,不断优化,直到判别器难以判断生成器生成图像的真假。 那么接下来我就要开始讲述DCGAN了喔,读到这里我就默认大家对GAN的原理已经掌握了,开始发车。🚖🚖🚖 我们先来看一下DCGAN的全称——。原创 2022-10-11 12:08:56 · 14219 阅读 · 39 评论 -
Dilated Convolution(空洞卷积、膨胀卷积)详解
首先,来谈谈我是如何一步步接触Dilated Convolution (后文都叫空洞卷积了)的。在一次机缘巧合下,我恰巧瞅到师姐的论文,上面就闪晃晃的写有空洞卷积四个大字,我当时想的是这是什么玩意,听名字有点高大上,于是课下就搜了搜,发现还是挺有意思的,但也一直没有详细的看过,只能说有一个大致的了解,知道这家伙是干什么的。...原创 2022-08-31 09:31:24 · 5692 阅读 · 12 评论 -
Batch_Normalization 、Layer_Normalization 、Group_Normalization你分的清楚吗
这节我将为大家带来Batch_Normalization、Layer_Normalization和Group_Normalization的讲解,说讲解还是有点虚的啦,因为这节我并不准备讲。👼👼👼“不准备讲!!!?那你写个嘚~~~”大佬们先别喷啊,这节我确实不会过多的讲解,写这篇的原因是因为我发现我对Batch_Normalization的理解稍有欠缺,于是就找了找资料,然后顺道看到了Layer_Normalization和Group_Normalization,于是自己就都学了一遍。。🍁🍁🍁。.......原创 2022-07-27 08:30:00 · 1468 阅读 · 1 评论 -
对抗生成网络GAN系列——GAN原理及手写数字生成小案例
其实关于GAN的讲解我早就做过一期,点击☞☞☞了解详情🌱🌱🌱由于最近会用到GAN的一些知识,自己又对GAN进行了一些整理,有了一些新的认识,便写了这篇文章。那么这篇文章和早期的文章有什么区别呢?首先,早期的文章只是对GAN做了一个大概的认识,而这篇文章会贴合论文较为详细的讲解GAN网络;其次,这次我准备写一个GAN系列,介绍一些经典的GAN网络,所以这篇文章和后面打算写的文章关联性更强。【注这里先来简单的介绍一下GAN,其完整的名称为。其实这个起名还有个小故事,我简要的说一下,大家随便听听,就当放松了。..原创 2022-07-17 23:34:02 · 3647 阅读 · 17 评论 -
还不懂目标检测嘛?一起来看看Faster R-CNN源码解读
这部分同样参考霹雳吧啦Wz的视频,Faster R-CNN代码链接如下:Faster R-CNN源码 🍀🍀🍀 先说说这篇文章该怎么用吧?——我觉得最好是这样,你先看看对Faster R-CNN代码的解读,自己先理解理解,之后如果有什么不懂的再来这篇文章看能否找到你想要的答案;或者你已经基本弄明白了代码,那么可以将此篇文章当成一个速查手册。其实用视频和文字来表述问题是各有优劣的,看一段视频无疑会让你快速掌握一个知识点,视频中对某些问题的描述可能也会更清晰,让听者很直观感受到自己能力的提高;而读一篇文...原创 2022-07-08 09:49:37 · 3567 阅读 · 21 评论 -
目标检测系列——Faster R-CNN原理详解
前文我已经介绍过R-CNN、Fast R-CNN的原理,具体内容可以点击下面链接阅读。【注:阅读此篇之前建议对R-CNN和Fast R-CNN有一定的了解】 Faster R-CNN算是这个目标检测系列的最后一篇了,在速度和准确率上也相对达到了比较好的效果,所以还是非常重要的。后面可能会更新语义分割Mask RCNN,当然这都是后话啦。现在就和我一起来学学Faster R-CNN吧。🍻🍻🍻 不知大家是否还记得Fast R-CNN的流程?这里帮大家回忆一下,其步骤如下: 那么Faster...原创 2022-07-03 10:40:41 · 6453 阅读 · 24 评论 -
目标检测系列——Fast R-CNN原理详解
在上一篇,我们介绍过RCNN的原理,详情戳☞☞☞了解这里再来简要概述一下RCNN的算法步骤: 继RCNN发布后,RGB大神又发表了Fast R-CNN🍍🍍🍍先来看看论文中表示Fast R-CNN结果的图片,如下: 关于这张经典的图片,现在大家只要又一个直观的感受即可,后面会深度解析。此篇文章较RCNN有了较大提示,Fast R-CNN其主要步骤如下: 可以看到,仅从RCNN和Fast R-CNN的步骤来看,它们还是存在一些差异的,下面将会具体谈谈这些步骤的具体细节,一起来看看吧.........原创 2022-06-23 10:33:03 · 2777 阅读 · 23 评论 -
目标检测系列——开山之作RCNN原理详解
RCNN是目标检测领域的开山之作,作者是Ross Girshick ,我们称之为RGB大神🥗🥗🥗 可以在google学术中看看这位大牛都写了哪些文章,看看这引用次数,只能惊呼🐂🍺!!! 接下来将详细介绍介绍RCNN的原理,先来看看论文中这张经典的图片。这张图片展示了RCNN的实现过程,其主要有四步,下面分别对每步进行讲解。 候选区域生成在RCNN中采用的是selective search 【简称SS算法】,这个算法的原理大致是通过颜色、大小、形状等一些特征对图像进行聚类,算法.....原创 2022-06-20 10:20:35 · 4217 阅读 · 15 评论 -
基于pytorch搭建ResNet神经网络用于花类识别
🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题🍊往期回顾:基于pytorch搭建VGGNet神经网络用于花类识别 基于pytorch搭建AlexNet神经网络用于花类识别🍊近期目标:拥有5000粉丝🍊支持小苏:点赞👍🏼、收藏⭐、留言📩文章目录基于pytorch搭建ResNet神经网络用于花类识别写在前面ResNet网络模型搭建✨✨✨训练结构展示小结基于pytorch搭建ResNet神经网络用于花类识别写在前面 这一系列已经写了好几篇了,这篇结束后可能就会停原创 2022-04-25 09:32:38 · 2736 阅读 · 6 评论 -
基于pytorch搭建GoogleNet神经网络用于花类识别
🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题🍊往期回顾:卡尔曼滤波系列1——卡尔曼滤波 基于pytorch搭建AlexNet神经网络用于花类识别🍊近期目标:拥有5000粉丝🍊支持小苏:点赞👍🏼、收藏⭐、留言📩文章目录基于pytorch搭建GoogleNet神经网络用于花类识别写在前面GoogleNet网络模型搭建✨✨✨注意事项训练结果展示小结基于pytorch搭建GoogleNet神经网络用于花类识别写在前面 前面已经出过基于pytorch搭建Al原创 2022-04-23 08:00:00 · 1162 阅读 · 2 评论 -
基于pytorch搭建VGGNet神经网络用于花类识别
🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题🍊往期回顾:卡尔曼滤波系列1——卡尔曼滤波 基于pytorch搭建AlexNet神经网络用于花类识别🍊近期目标:拥有5000粉丝🍊支持小苏:点赞👍🏼、收藏⭐、留言📩文章目录基于pytorch搭建VGGNet神经网络用于花类识别写在前面VGGNet网络模型搭建训练结果展示小结 基于pytorch搭建VGGNet神经网络用于花类识别写在前面 上一篇写过基于pytorch搭建AlexNet神经网络用原创 2022-04-21 07:30:00 · 2345 阅读 · 7 评论 -
pytorch中的transforms.ToTensor和transforms.Normalize理解
🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题🍊往期回顾:卡尔曼滤波系列1——卡尔曼滤波 张氏标定法原理详解🍊近期目标:拥有5000粉丝🍊支持小苏:点赞👍🏼、收藏⭐、留言📩文章目录pytorch中的transforms.ToTensor和transforms.Normalize理解🌴transforms.ToTensor🌵transforms.Normalize🌵pytorch中的transforms.ToTensor和transforms.Normali原创 2022-04-17 10:56:57 · 9100 阅读 · 13 评论 -
张氏标定法原理详解
🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题🍊往期回顾:卡尔曼滤波系列1——卡尔曼滤波 CMake 入门教程🍊近期目标:拥有2000粉丝🍊支持小苏:点赞👍🏼、收藏⭐、留言📩文章目录张氏标定法🌴写在前面🌴原理详解🌴最后唠唠张氏标定法🌴写在前面 在读这篇之前建议大家对四系坐标系之间的转换有一个较为清晰的认识,如若有不了解的可参考我之前的博文:相机模型与几何关系推导+四系坐标转换🌴原理详解🍉🍉🍉四系坐标转化时我们已经得到了如下公式:通过上原创 2022-04-14 12:21:28 · 5504 阅读 · 24 评论 -
混沌理论作业简析——两人一组_图像加密解密小游戏
🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题🍊往期回顾:霍夫直线检测原理详解 霍夫直线检测代码实战🍊近期目标:拥有2000粉丝🍊支持小苏:点赞👍🏼、收藏⭐、留言📩 写在前面 最近混沌理论的课程要求俩人一组进行图像的加密和解密,即一个人来对一张图像进行加密,另一个人对加密后的图像进行解密。🥗🥗🥗对图像加密的方式有很多种,很自然的想法就是在图像中加入一些随机的噪点,让原始图像变得不清晰。当然方法太多原创 2022-03-25 11:50:31 · 8631 阅读 · 7 评论 -
还在用VGG? RepVGG重铸VGG荣光
文章目录写在前面RepVGG结构多路模型转单路模型✨✨✨1、卷积层和BN层的合并2、1x1卷积转换为3x3卷积3、残差模块转换为3x3卷积卷积的可加性原理实验结果 写在前面 VGG算是非常经典的网络了,它是由牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发的 “直筒型“ 的网络。既然在看这篇文章,想必已经对VGG十分熟悉了。VGG有一些特别明显的缺陷,如网络的参数量较多,模型检测准确率也不是很好,总之VGG网络效果不理想原创 2022-03-10 21:35:29 · 1124 阅读 · 5 评论 -
轻量级神经网络——shuffleNet2
文章目录轻量级神经网络——shuffleNetshuffleNet2G1:输入输出通道数相同,MAC最小✨✨✨G2:分组数过大的分组卷积会增加MAC✨✨✨G3:碎片化操作对并行加速不友好G4:逐元素操作带来的内存和耗时不可忽略✨✨✨shuffleNet2 unit✨✨✨shuffleNet2的网络结构和效果轻量级神经网络——shuffleNetshuffleNet2 通过对shuffleNet1的讲解,相信大家已经对分组卷积和通道重排有了清晰的认识。那么shuffleNet2相较于shuffleNe原创 2022-03-05 09:45:00 · 2805 阅读 · 9 评论 -
轻量级神经网络——shuffleNet
文章目录轻量级神经网络——shuffleNetshuffleNet1逐点分组卷积(Pointwise group convolution)✨✨✨通道重排(channel shuffle)✨✨✨shuffleNet Unit✨✨✨shuffleNet1的网络结果和效果轻量级神经网络——shuffleNetshuffleNet1 在之前,已经讨论过一种轻量级神经网络——MobileNet,文中对MobileNet的三个版本都做了详细的介绍,读此篇之前,建议先了解MobileNet,特别是要对其中的深度可原创 2022-02-28 19:55:17 · 14791 阅读 · 13 评论 -
神经网络参数量、计算量(FLOPS)、内存访问量(AMC)计算详解
图片来源于B站同济自豪兄 如若文章对你有所帮助,那就????????????咻咻咻咻~~duang~~点个赞呗原创 2022-02-21 16:26:10 · 4504 阅读 · 5 评论 -
详细且通俗讲解轻量级神经网络——MobileNets【V1、V2、V3】
文章目录轻量级神经网络——MobileNetsMobileNetV1深度可分离卷积1、**深度卷积**✨✨✨2、**逐点卷积**✨✨✨参数量和计算量1、**标准卷积**2、**深度可分离卷积**✨✨✨MobileNetV1的网络结构及效果MobileNetV2Linear Bottlenecks✨✨✨Inverted Residuals✨✨✨MobileNetV2的网络结构及效果MobileNetV3新增SE模块✨✨✨重新设计耗时层结构重新设计激活函数✨✨✨MobileNetV3的网络结构及结果轻量级神经原创 2022-02-20 14:17:27 · 20814 阅读 · 19 评论 -
基于opencv的haar训练自己的识别器【含 opencv_traincascade.exe和opencv_haartraining.exe下载】
文章目录环境准备数据准备数据预处理✨✨✨建立正样本的描述文件建立负样本的描述文件生成正样本的.vec文件训练模型✨✨✨模型测试环境准备 所需的环境非常简单,如下:操作系统: Windowsopencv 【opencv版本随意,但最好是较低版本的,像opencv3.4.1这样,因为后面所需的一些文件高版本的opencv是不自带的,当然想必看这篇文章的都已经下好opencv了,那么对于已经下了高版本opencv的同志也不要着急,本文会告诉你解决方法】 opencv_cr原创 2022-02-14 21:57:42 · 5609 阅读 · 30 评论