计算机视觉
文章平均质量分 87
继续加油
我菜就爱学
某高校在校生,研究方向计算机视觉。刚刚入行的小白,还需要很大的空间提升
展开
-
yolov8训练自己的数据集以及权重转化为.engine格式(超详细)
最下面的训练结果就是最新的。项目中打开ultralytics中的models中的yolo中的pose中的train.py文件,运行。项目里面的 pre_work 文件夹里面 “seg_split_data.py” .双击进去。项目里面的 pre_work 文件夹里面 “检查coco格式的json.py” .双击进去。项目里面的 pre_work 文件夹里面 “pose_json_txt.py” .双击进去。项目里面的 pre_work 文件夹里面 “coco_json.py” .双击进去。原创 2024-03-18 21:47:16 · 2007 阅读 · 0 评论 -
FLatten Transformer:聚焦式线性注意力模块
线性注意力将Softmax解耦为两个独立的函数,从而能够将注意力的计算顺序从(query·key)·value调整为query·(key·value),使得总体的计算复杂度降低为线性。然而,目前的线性注意力方法要么性能明显不如Softmax注意力,并且可能涉及映射函数的额外计算开销首先,以往线性注意力模块的注意力权重分布相对平滑,缺乏集中能力来处理最具信息量的特征。作为补救措施,我们提出了一个简单的映射函数来调整查询和关键字的特征方向,使注意权值更容易区分。原创 2024-01-04 21:36:48 · 652 阅读 · 0 评论 -
【我的方向】轻量化小目标检测
但是,组卷积也有局限性,会导致特征图之间的信息不流畅,输出的特征图没有包含所有输入特征图的信息,后续的shuffleNet提出的通道重排可以解决这个问题。在获得低频信息时,对输入特征图中的低频信息进行常规卷积操作,同时对高频信息进行池化,将两者结合得到卷,积之后的低频信息。Depthwise卷积在获得特征的空间信息后,将得到的输出特征进行Pointwise卷积,即利用1×1的卷积核对Depthwise卷积的输出进行卷积,以获取特征中不同通道之间的信息,通过该组合方式达到轻量化效果。原创 2023-12-26 09:06:13 · 470 阅读 · 0 评论 -
【CVPR轻量级网络】- 追求更高的FLOPS(FasterNet)
提出了一种新的部分卷积(PConv),通过同时减少冗余计算和内存访问,可以更有效地提取空间特征。FLOPs 的减少并不一定会导致类似水平的延迟减少。在ImageNet1k上,小型FasterNet-T0在GPU、CPU和ARM处理器上分别比MobileViT XXS快3.1倍、3.1倍和2.5倍,同时准确率高2.9%。我们的大型FasterNet-L实现了令人印象深刻的83.5%的顶级精度,与新兴的Swin-B不相上下,同时在GPU上的推理吞吐量(吞吐量大,就是指单位时间内成功地传送数据的数量大。原创 2023-04-15 18:57:58 · 4232 阅读 · 8 评论 -
【目标检测】入门基础原理学一遍就够了吧
两步走的目标检测:先进行区域推荐,而后再进行目标分类。说明:先对图像里面是物体的对象进行画框,然后对框内的对象进行目标检测端到端的目标检测:采用一个网络一步到位。YOLO、SSD训练阶段多:步骤繁琐:微调网络+训练SVM+训练边框回归器训练耗时:占用磁盘空间大:5000张图片产生几百G的特征文件处理速度慢:vgg16模型处理一张图片花费17 s图像形状变化:候选区域要经过crop/warp进行固定大小,无法保证图片不变形。原创 2023-02-27 21:38:58 · 1532 阅读 · 0 评论 -
【论文阅读】- 我对“AlexNet”的理解
主要讲作者们训练了一个大型的深度卷积神经网络,将ImageNet LSVRC-2010竞赛中的120万张高分辨率图像分类为1000个不同的类别。测试一下数据上,我们实现了37.5% 和17.0% 的前1和前5错误率,这比以前的最新技术要好得多。神经网络具有6000万的参数和650,000的神经元,由五个卷积层组成,其中一些是max池层,以及三个具有最终1000 softmax的全连接层。为了使训练更快,我们使用了非饱和神经元和卷积操作的非常有效的GPU实现。原创 2022-11-13 14:09:29 · 830 阅读 · 1 评论