牛只识别 牛脸识别 个体识别 身份识别

文章探讨了在低计算量下利用YOLOv5s和通道剪枝算法实现奶牛个体快速、准确识别的方法,通过稀疏训练和剪枝优化,提高了模型效率,结果显示剪枝后模型在低光照条件下表现优秀,为养殖场奶牛精细化养殖提供可能。
摘要由CSDN通过智能技术生成

融合YOLOv5s与通道剪枝算法的奶牛轻量化个体识别方法
Light-weight recognition network for dairy cows based on the fusion of YOLOv5s and channel pruning algorithm

论文链接
知网链接
点击进入正文

该文章讨论了奶牛花斑光照条件、不同剪枝方法、不同剪枝率对准确率的影响。

引用格式:
许兴时,王云飞,华志新,等. 融合YOLOv5s与通道剪枝算法的奶牛轻量化个体识别方法[J].农业工程学报,2023, 39(15): 153-163 doi: 10.11975/j.issn.1002-6819.202303122

XU Xingshi, WANG Yunfei, HUA Zhixin, et al. Light-weight recognition network for dairy cows based on the fusion of YOLOv5s and channel pruning algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2023, 39(15): 153-163 doi: 10.11975/j.issn.1002-6819.202303122

相关视频资料:超链接
https://www.bilibili.com/video/BV1ii4y1C75h/?vd_source=d68da64987fce61a59890c929d25cd3d

摘要:

实时准确地识别奶牛个体身份是构建完善的奶牛精准养殖技术架构的先决条件。如何在快速精准识别奶牛个体的同时保证模型的轻量化是至关重要的。**本文提出了一种在低计算量和低参数量条件下快速准确识别奶牛个体身份的方法。**研究采用YOLOv5s作为原始模型,利用BN层中缩放因子对模型中通道的重要性进行判断并剪除不重要的通道,从而降低网络复杂度。为了更加有效地压缩模型,本研究在损失函数中增加稀疏损失项,实现模型通道的稀疏化。测试试验结果表明,剪枝后的模型平均精度mAP为99.50%,计算量为8.1 G,参数量为1.630 M,每秒帧数为135.14 帧。相比其他具有代表性的目标检测模型,本文方法拥有最小的模型复杂度。此外,相比其他模型,本文方法对奶牛斑纹特征依赖程度更低,在低照度条件下有着更加出色的表现。考虑该方法具有快速、准确、鲁棒、低计算量和低参数量的特点,在推进养殖场中奶牛精细化养殖方面具有巨大潜能。
在这里插入图片描述

材料部分

在这里插入图片描述

方法部分

本研究在这一部分的技术路线如下图所示。首先,利用手工标准的数据集训练奶牛个体识别YOLOv5s网络。其次, 对已得到的奶牛个体识别YOLOv5s网络进行稀疏训练、通道剪枝和微调操作,最终在保证准确度的前提条件下,减小模型大小、提高运行速度,最终实现实时准确的多目标奶牛个体识别。
技术路线图


选用YOLOv5s作为基础网络。

利用通道剪枝算法实现快速轻量的个体识别

在YOLOv5s模型上实现通道剪枝需要借助网络的BN层。BN层被认为能够有效提高网络泛化能力、加快网络训练速度、解决“Internal Covariate Shift”问题。BN层的具体操作如论文中所示。
在这里插入图片描述

如图4所示,通道剪枝算法首先通过稀疏训练使BN层中的参数γ趋向于0,之后,保留贡献度高的通道并剪除贡献度较小的通道,实现模型的压缩。
在这里插入图片描述

本研究中通道剪枝算法具体步骤如下:
步骤1:通道稀疏训练

在这里插入图片描述

步骤2:剪除低贡献度通道

在这里插入图片描述

步骤3:对剪枝后的模型进行微调

实验结果

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

文章结论

在这里插入图片描述

https://kns.cnki.net/kcms2/article/abstract?=3uoqIhG8C45S0n9fL2suRadTyEVl2pW9UrhTDCdPD67FaNsjKY-lvbPjDbEW1A2B1fh26pBaYTo01OdC9p2U-l_tLD9YaCL7&uniplatform=NZKPT

知网链接

基于YOLOv8的识别检测系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.91 类别:“sheep”,“cow” 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8源代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集,训练其他模型同理。 data文件夹下的bicycle.yaml文件为数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型,训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练好模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一位不愿透漏姓氏的许先森

你的鼓励是我最大的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值