自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 YOLOv8使用过程中的常见疑问

当迭代次数大于10000时则会使用SGD,否则使用AdamW。关于迭代的计算:dataset:数据集中图片的数量。nbs:默认为64。batchsize、epoch:可自己设置。训练中的进度条为:dataset/batchsizeps:建议直接选择使用SGD。

2024-06-27 22:46:57 289

原创 Learning Efficient Convolutional Networks through Network Slimming(Slim)论文翻译

深度卷积神经网络(CNN)在许多现实世界应用中的部署在很大程度上受到其高计算成本的阻碍。在本文中,我们提出了一种新颖的 CNN 学习方案,以同时 1)减小模型大小;2)减少运行时内存占用;3)在不影响精度的情况下减少计算操作的数量。这是通过以简单但有效的方式在网络中强制执行通道级稀疏性来实现的。与许多现有方法不同,所提出的方法直接适用于现代 CNN 架构,在训练过程中引入最小的开销,并且不需要特殊的软件/硬件加速器来生成模型。

2024-01-16 21:16:45 404

原创 PRUNING FILTERS FOR EFFICIENT CONVNETS(L1)

摘要CNN 在各种应用中的成功伴随着计算和参数存储成本的显着增加。最近为减少这些开销所做的努力包括在不损害原始准确性的情况下修剪和压缩各个层的权重。然而,基于幅度的权重剪枝减少了来自全连接层的大量参数,并且由于剪枝网络中的不规则稀疏性,可能无法充分降低卷积层中的计算成本。我们提出了一种 CNN 加速方法,其中我们从 CNN 中修剪那些被认为对输出精度影响较小的滤波器。通过删除网络中的整个过滤器及其连接的特征图,计算成本显着降低。与修剪权重相比,这种方法不会导致稀疏连接模式。

2024-01-13 15:02:50 1046

原创 LAYER-ADAPTIVE SPARSITY FOR THEMAGNITUDE-BASED PRUNING(LAMP)翻译

关于神经网络剪枝的最新发现表明,通过精心选择的分层稀疏性,简单的基于幅度的剪枝可以实现稀疏性和性能之间的最先进的权衡。然而,由于没有就“如何选择”达成明确共识,分层稀疏性大多是逐个算法选择的,通常采用手工启发式或广泛的超参数搜索。为了填补这一空白,我们提出了一种新的全局剪枝重要性评分,即基于层自适应幅度的剪枝(LAMP)评分;该分数是权重大小的重新缩放版本,其中包含剪枝引起的模型级 2 失真,并且不需要任何超参数调整或大量计算。

2024-01-13 14:23:01 3437 4

翻译 GOLD-YOLO论文翻译

翻译:在过去的几年中,YOLO 系列模型已成为实时目标检测领域的领先方法。许多研究通过修改架构、增加数据和设计新的损失,将基线(baseline)提升到更高的水平。然而,我们发现以前的模型仍然存在信息融合问题,尽管特征金字塔网络(FPN)和路径聚合网络(PANet)已经缓解了这个问题。因此,本研究提供了一种先进的Gatherand-Distribute机制(GD)机制,通过卷积和自注意力操作来实现。这种新设计的模型被命名为Gold-YOLO,它增强了多尺度特征融合能力,并在所有模型尺度上。

2023-12-22 16:31:54 326

原创 Attention Is All You Need(论文精读)

本篇论文精度参考沐神:Transformer论文逐段精读【论文精读】_哔哩哔哩_bilibili自然语言处理之Attention大详解(Attention is all you need)-CSDN博客Transformer论文翻译_transformer机器翻译论文-CSDN博客【Transformer系列(3)】 《Attention Is All You Need》论文超详细解读(翻译+精读)-CSDN博客闲谈:Transformer开创了继MLP、CNN和RNN之后的第四大类模型。是由谷歌团队在20

2023-12-18 20:44:49 99

原创 RNN,LSTM,CNN,RCNN的优缺点

循环卷积神经网络(Recurrent Convolutional Neural Network,RCNN)是一种结合了卷积神经网络 (CNN)和循环神经网络(RNN)的模型,它在处理序列数据时具有一定的优势和缺点。这些门控结构能够控制信息的流动和保留,使得网络能够有选择地记忆和遗忘输入序列中的信息,从而更好地处理序列数据。总体来说,循环卷积神经网络在处理序列数据时具有一定的优势,但也存在一些限制和挑战、在实际应用中,需要根据具体任务和数提特点来选择合适的模型结构。这有助于提高模型的训练效率和泛化能力。

2023-12-14 20:47:37 3175 1

原创 卷积神经网络padding,步长(s)和输出图片计算

若使用n的kernel,则输出大小为(((x+2p-k)/s)+1)*(((x+2p-k)/s)*n。假设图片大小是x*x*3,kernel大小为k*k*3(k通常为奇数),padding大小为p。假设图片大小是x*x,kernel大小为k*k(k通常为奇数),padding大小为p。则有padding时 输出图片的大小为(x+2p-k+1)*(x+2p-k+1)如果padding未知,且想要使输入输出大小相等,则p=(k-1)/2。则无padding时 输出图片的大小为(x-k+1)*(x-k+1)

2023-09-09 19:07:02 338 1

原创 正常手撕神经网络的步骤

第七步:训练,包括(1.初始化参数,2.重复以下训练,直到完成(1.计算梯度(dw,db),(2.更新参数(w,b)).输出每次训练的损失。第二步:加载数据集,并查看数据的各种信息,如:训练集数据量,测试集数据量,数据的宽高等(若没有数据集,则第二步为创建数据集)第二步:加载数据集,并查看数据的各种信息,如:训练集数据量,测试集数据量,数据的宽高等(若没有数据集,则第二步为创建数据集)第三步:定义模型(激活函数)第四步:定义模型(激活函数)第一步:导入各种需要的模型。第一步:导入各种需要的模型。

2023-09-06 11:43:33 95 1

原创 Yolov5调用海康网口相机(mv-ca-11gm)

若调用相机出现黑屏,则说明程序中的宽高与MVS中的宽高不一致,此时只需打开MVS查看相机的宽高,然后将程序中的宽高修改即可。

2023-07-19 12:01:13 2415 2

原创 RCNN,Fast-RCNN与Faster-RCNN(搬运总结)

(4条消息) 一文详解R-CNN、Fast R-CNN、Faster_faster rcnn参数量和模型大小_Hong_Youth的博客-CSDN博客。

2023-07-07 15:00:47 544

原创 主成分分析(PCA)

1.数据降维:PCA可以将高维数据转化为低维数据,去除冗余的特征,减少数据的维度。2.特征选择:通过PCA,可以选择最具代表性的主成分作为新的特征,去除对问题不重要的特征。总而言之,主成分分析在数据处理和特征工程中起着重要的作用,可以帮助我们理解数据、简化问题、提高模型性能,并为后续的分析和建模提供更好的数据基础。3.去除冗余信息:PCA可以从原始数据中提取出最具代表性的特征,去除冗余信息和噪声,提高模型的泛化能力。2.数据可视化:通过PCA降维后的特征,可以用二维或三维的图形展示数据,便于可视化和理解。

2023-07-07 11:14:02 639 1

原创 AdaBoost(自适应提升)总结

6.以最大概率取{F1,F2都分错的数据],以次大概率取(F1分对而F2分错的数据,以及F1分错而F2分对的数据],以最小概率取F1、F2都分对的数据],得到数据集D3。5.将D分为: [F1、F2都分对的数据],[F1分对而F2分错的数据,以及F1分错而F2分对的数据],[F1,F2都分错的数据]。3.以较大概率取F1分错的数据,以较小概率去F1分对的数据,形成新的集合D2。3、Adaboost依赖于弱分类器,而弱分类器的训练时间往往很长。2.将数据集D分为两类,{F1分对的数据]和{F1分错的数据]。

2023-07-07 10:48:55 165 2

原创 AlexNet相对于LeNet的改进之处

3.随机丢弃(Dropout):在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。提出了最大池化(max pooling)的概念,即对每一个邻近像素组成的“池子”,选取像素最大值作为输出。AlexNet本质上是一个更深更大的LeNet,与LeNet在架构上上没有太多本质的区别。作用:有重叠的最大池化能够很好的克服过拟合问题,提升系统性能。作用:使网络训练以更快的速度收敛。

2023-07-05 12:11:16 300

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除