pytorch
文章平均质量分 73
mingo_敏
这个作者很懒,什么都没留下…
展开
-
深度学习论文: MobileNetV4 - Universal Models for the Mobile Ecosystem及其PyTorch实现
专为移动设备设计的高效架构MobileNetV4(MNv4)核心在于引入了通用倒置瓶颈(UIB)搜索块和Mobile MQA注意力块,前者融合了多种技术,后者针对移动加速器优化,可大幅提升速度。同时采用了优化的神经架构搜索(NAS)方案。这一系列创新使得MNv4模型在多种设备上实现帕累托最优。此外,还引入了一种新的知识蒸馏技术,提高了模型的准确性。最终,MNv4-Hybrid-Large模型在ImageNet-1K上达到87%的准确率,同时在Pixel 8 EdgeTPU上的运行时间极短。原创 2024-04-24 11:13:57 · 3215 阅读 · 2 评论 -
PyTorch ParkslotNet
【代码】PyTorch ParkslotNet。原创 2019-07-13 20:18:39 · 37 阅读 · 1 评论 -
基于深度学习的AI生成式人脸图像鉴别
AIGC(AI内容生成)技术的快速发展确实为创作者提供了高效生产力工具,但同时也引发了一些问题和挑战。这些技术可以生成以假乱真的图像、视频换脸等,给不法分子提供了滥用的机会。其中,一些不法分子可能利用AIGC技术制造虚假新闻、违反版权、绕过活体身份验证、散布谣言和诽谤他人、进行敲诈勒索等非法活动,以谋取不当利益。这些行为给社会造成了严重的负面影响,破坏了信息的真实性和可信度。因此,我们需要认识到AIGC技术的潜在风险,并采取相应的措施来应对。原创 2023-08-30 09:24:12 · 3083 阅读 · 11 评论 -
深度学习论文: Rethinking “Batch” in BatchNorm及其PyTorch实现
BN在训练和测试中行为不一致:训练时,BN的统计量来自mini-batch;测试时,BN的统计量来自population。这部分主要探讨了BN行为不一致对模型性能的影响,并且提出消除不一致的方法提升模型性能。原创 2022-12-19 17:31:26 · 142 阅读 · 0 评论 -
深度学习论文: Conv2Former: A Simple Transformer-Style ConvNet for Visual Recognition及其PyTorch实现
通过组合ConvNet与ViT的设计理念,本文利用卷积调制操作对自注意力进行了简化,进而构建了一种新的ConvNet架构Conv2Former。原创 2022-12-02 17:41:53 · 2315 阅读 · 0 评论 -
深度学习论文: MOAT: Alternating Mobile Convolution and Attention Brings Strong Vision Models及其PyTorch实现
MOAT 分析了MBConv和Transformer Block 的优缺点,将二者有效地合并到MOAT Block中。此外,通过简单地将全局注意力转换为窗口注意力,MOAT可以无缝应用于需要大分辨率输入的下游任务。由于 Mobile Convolution 可以有效地在像素之间交换局部信息(从而跨窗口),MOAT不需要额外的窗口移动机制。原创 2022-10-24 16:15:07 · 1412 阅读 · 0 评论 -
深度学习论文: SegFormer:Simple and Efficient Design for Semantic Segmentation with Transformers及其PyTorch实现
SegFormer使用一种分层特征表示的方法,每个transformer层的输出特征尺寸逐层递减,通过这种方式捕获不同尺度的特征信息。并且舍弃了ViT中的position embedding操作,避免了测试图像与训练图像尺寸不同而导致模型性能下降的问题。在decoder部分采用简单的MLP结构,聚合transformer层不同尺度的特征,可以同时融合局部注意力和全局注意力。原创 2022-10-19 21:14:18 · 1512 阅读 · 1 评论 -
深度学习论文: SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation及其PyTorch实现
1 采用强骨干网络作为编码器;2 多尺度信息交互;3 空域注意力;4 低计算复杂度。基于此,不同于已有Transformer方案,提出的SegNeXt对编码器模块采用传统卷积模块设计但引入了多尺度卷积注意力,对解码器模块采用了Hamberger(自注意力的一种替代方案)进一步提取全局上下文信息。提出的SegNeXt兼具性能和速度的优势;原创 2022-10-01 07:00:00 · 1780 阅读 · 0 评论 -
NeuralProphet之一:安装与使用
NeuralProphet模型集成了Prophet的所有优点,不仅具有不错的可解释性,还有优于Prophet的预测性能。梯度下降通过使用PyTorch作为后端进行优化。使用 AR-Net 对时间序列的自相关进行建模使用分离的前馈神经网络对滞后回归量进行建模。可配置的FFNN非线性深层。可调整为特定的预测范围(大于 1)。自定义损失和指标。.....................原创 2022-08-15 11:02:30 · 4072 阅读 · 0 评论 -
深度学习论文: An Improved One millisecond Mobile Backbone及其PyTorch实现
深度学习论文: An Improved One millisecond Mobile Backbone及其PyTorch实现An Improved One millisecond Mobile BackbonePDF: https://arxiv.org/pdf/2206.04040.pdfPyTorch代码: https://github.com/shanglianlm0525/CvPytorchPyTorch代码: https://github.com/shanglianlm0525/PyTor原创 2022-06-23 19:35:25 · 1251 阅读 · 0 评论 -
深度学习论文: Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs及其PyTorch实现
深度学习论文: Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs及其PyTorch实现Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNsPDF: https://arxiv.org/pdf/2203.06717.pdfPyTorch代码: https://github.com/shanglianlm0525/CvP原创 2022-03-16 13:44:28 · 1920 阅读 · 0 评论 -
深度学习论文: GhostNets on Heterogeneous Devices via Cheap Operations及其PyTorch实现
深度学习论文: GhostNets on Heterogeneous Devices via Cheap Operations及其PyTorch实现GhostNets on Heterogeneous Devices via Cheap OperationsPDF: https://arxiv.org/pdf/2201.03297.pdfPyTorch代码: https://github.com/shanglianlm0525/CvPytorchPyTorch代码: https://github.c原创 2022-02-11 19:13:37 · 1346 阅读 · 0 评论 -
深度学习论文: A ConvNet for the 2020s及其PyTorch实现
深度学习论文: A ConvNet for the 2020s及其PyTorch实现A ConvNet for the 2020sPDF: https://arxiv.org/pdf/2103.09950.pdfPyTorch代码: https://github.com/shanglianlm0525/CvPytorchPyTorch代码: https://github.com/shanglianlm0525/PyTorch-Networks1 概述2 Modernizing a ConvNet原创 2022-01-18 15:09:15 · 1809 阅读 · 0 评论 -
关于炼丹,你是否知道这些细节?
序本文算是我工作一年多以来的一些想法和经验,最早发布在旷视研究院内部的论坛中,本着开放和分享的精神发布在我的知乎专栏中,如果想看干货的话可以直接跳过动机部分。另外,后续在这个专栏中,我会做一些关于原理和设计方面的一些分享,希望能给领域从业人员提供一些看待问题的不一样的视角。动机前段时间走在路上,一直在思考一个问题:我的时间开销很多都被拿去给别人解释一些在我看起来显而易见的问题了,比如cvpods里面的一些code写法问题(虽然这在某些方面说明了文档建设的不完善),而这变相导致了我实际工作时间的减少,如转载 2022-01-18 09:21:29 · 273 阅读 · 0 评论 -
深度学习论文: Learning to Resize Images for Computer Vision Tasks及其PyTorch实现
深度学习论文: Learning to Resize Images for Computer Vision Tasks及其PyTorch实现Learning to Resize Images for Computer Vision TasksPDF: https://arxiv.org/pdf/2103.09950.pdfPyTorch代码: https://github.com/shanglianlm0525/CvPytorchPyTorch代码: https://github.com/shang原创 2022-01-10 10:33:34 · 2403 阅读 · 4 评论 -
解决pytorch半精度amp训练nan问题
本文主要是收集了一些在使用pytorch自带的amp下loss nan的情况及对应处理方案。Why?如果要解决问题,首先就要明确原因:为什么全精度训练时不会nan,但是半精度就开始nan?这其实分了三种情况:计算loss 时,出现了除以0的情况loss过大,被半精度判断为inf网络参数中有nan,那么运算结果也会输出nan1&2我想放到后面讨论,因为其实大部分报nan都是第三种情况。这里来先看看3。什么情况下会出现情况3?这个讨论给出了不错的解释:Nan Loss with torch转载 2022-01-06 09:08:44 · 1675 阅读 · 0 评论 -
The PyTorch-Kaldi Speech Recognition Toolkit
The PyTorch-Kaldi Speech Recognition ToolkitPDF: https://arxiv.org/pdf/1811.07453.pdf代码: https://github.com/mravanelli/pytorch-kaldi文档: http://fancyerii.github.io/books/pytorch-kaldi/1 概述Kaldi目前是最受欢迎的ASR工具包。使用C++和各种脚本来实现最先进的语音识别系统, Kaldi包括一全套使用方法,涵盖了所原创 2021-12-15 09:24:37 · 4433 阅读 · 0 评论 -
深度学习论文: Attentional Feature Fusion及其PyTorch实现
深度学习论文: Attentional Feature Fusion及其PyTorch实现Attentional Feature FusionPDF: https://arxiv.org/pdf/2009.14082.pdfPyTorch代码: https://github.com/shanglianlm0525/CvPytorchPyTorch代码: https://github.com/shanglianlm0525/PyTorch-Networks1 概述提出的多尺度通道注意力模块用于更原创 2017-06-26 21:49:18 · 14997 阅读 · 1 评论 -
深度学习论文: EfficientDet: Scalable and Efficient Object Detection及其PyTorch实现
深度学习论文: EfficientDet: Scalable and Efficient Object Detection及其PyTorch实现EfficientDet: Scalable and Efficient Object DetectionPDF: https://arxiv.org/pdf/1911.09070v1.pdfPyTorch代码: https://github.com/shanglianlm0525/CvPytorchPyTorch代码: https://github.com原创 2021-11-05 09:44:29 · 398 阅读 · 0 评论 -
深度学习论文: MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer及其PyTorch实现
深度学习论文: MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer及其PyTorch实现MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision TransformerPDF: https://arxiv.org/pdf/2110.02178.pdfPyTorch代码: https://github.com/sha原创 2021-10-15 16:13:53 · 1892 阅读 · 0 评论 -
深度学习论文: MicroNet: Improving Image Recognition with Extremely Low FLOPs及其PyTorch实现
深度学习论文: MicroNet: Improving Image Recognition with Extremely Low FLOPs及其PyTorch实现MicroNet: Improving Image Recognition with Extremely Low FLOPsPDF: https://arxiv.org/pdf/2108.05894.pdf1 概述MicroNet的提出主要的遵循以下两个设计原则:降低网络节点(神经元)之间的连通性而不降低网络的宽度使用更复杂的非线性激原创 2021-08-18 13:51:25 · 1222 阅读 · 1 评论 -
yolov5中修改fitness
代码位置: utils\metrics\fitness.pyyolov5默认是在coco上训练的,因此mAP@0.5:0.95权重占比较大def fitness(x): # Model fitness as a weighted combination of metrics w = [0.0, 0.0, 0.1, 0.9] # weights for [P, R, mAP@0.5, mAP@0.5:0.95] return (x[:, :4] * w).sum(1)但是实际原创 2021-06-23 14:54:17 · 1649 阅读 · 2 评论 -
目标检测中的Classificition Loss
Classificition LossPyTorch: https://github.com/shanglianlm0525/CvPytorch目标检测任务的损失函数由Classificition Loss和Bounding Box Regeression Loss两部分构成。本文介绍目标检测任务中近几年来Classificition Loss的演变过程参考资料:1 一文看尽深度学习中的15种损失函数...原创 2021-06-07 16:58:42 · 662 阅读 · 1 评论 -
PyTorch中的Hook函数
Hook 函数是在不改变主体的情况下,实现额外功能。由于 PyTorch 是基于动态图实现的,因此在一次迭代运算结束后,一些中间变量如非叶子节点的梯度和特征图,会被释放掉。在这种情况下想要提取和记录这些中间变量,就需要使用 Hook 函数。PyTorch 提供了 4 种 Hook 函数。1 torch.Tensor.register_hook(hook)**功能:**注册一个反向传播 hook 函数,仅输入一个参数,为张量的梯度。hook函数:hook(grad)参数:grad:张量的梯度原创 2021-05-26 14:59:15 · 1719 阅读 · 0 评论 -
目标检测中的Bounding Box Regression Loss
Bounding Box Regression LossPyTorch: https://github.com/shanglianlm0525/CvPytorch目标检测任务的损失函数由Classificition Loss和Bounding Box Regeression Loss两部分构成。本文介绍目标检测任务中近几年来Bounding Box Regression Loss Function的演变过程Smooth L1 Loss优点:缺点:Focal Loss优点:缺点:Io原创 2021-05-10 21:57:06 · 4122 阅读 · 0 评论 -
PyTorch代码优化技巧
1 直接在GPUs上构建张量很多人都是这样在GPUs上创建张量的t = tensor.rand(2,2).cuda()然而,这首先创建CPU张量,然后将其转移到GPU……这真的很慢。相反,直接在想要的设备上创建张量。t = tensor.rand(2,2, device=torch.device('cuda:0'))2 使用DistributedDataParallel不要使用DataParallelPyTorch有两个主要的模式用于在多 GPUs训练。第一种是DataParallel,它原创 2021-05-08 10:58:43 · 581 阅读 · 2 评论 -
Mixed Precision Training
Nvidia最开始支持automatic mixed precision训练,PyTorch从1.6开始支持automatic mixed precision training。通常,automatic mixed precision training 需要使用 torch.cuda.amp.autocast 和 torch.cuda.amp.GradScaler 。1 首先实例化 torch.cuda.amp.autocast(enable=True) 作为上下文管理器或者装饰器,从而使脚本使用混合原创 2021-04-16 13:57:47 · 71 阅读 · 0 评论 -
修改yolov5的输入图像尺寸为指定尺寸
yolov5支持两种训练方式:加入指定输入img-size为640square (w==h)如 输入为 [b, c, 640, 640], 可以使用mosic数据增强方式增强图像rect(scale):如 输入为 [b, c, 640, 512], 其中512为短边放缩以后的尺寸(补充到32的倍数)但是不支持mosic数据增强方式但是有的时候在实际项目使用中,可能会涉及到需要同时指定输入图像的长和宽,因为对yolov5代码做一些修改以适应于项目需求。修改后的代码如下:....原创 2021-04-12 15:00:34 · 29912 阅读 · 26 评论 -
深度学习论文: Refining activation downsampling with SoftPool及其PyTorch实现
深度学习论文: Refining activation downsampling with SoftPool及其PyTorch实现Refining activation downsampling with SoftPoolPDF: https://arxiv.org/pdf/2101.00440v3.pdfPyTorch代码:https://github.com/shanglianlm0525/CvPytorchPyTorch代码:https://github.com/shanglianlm0525原创 2021-03-26 14:54:12 · 1446 阅读 · 0 评论 -
深度学习论文: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks及其PyTorch实现
深度学习论文: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks及其PyTorch实现PDF: https://arxiv.org/pdf/1905.11946.pdfPyTorch: https://github.com/shanglianlm0525/PyTorch-NetworksPyTorch: https://github.com/shanglianlm0525/CvPytorch1 概述2原创 2021-03-09 16:53:12 · 403 阅读 · 0 评论 -
PyTorch填坑攻略
RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0. Got 337 and 336 in dimension 3 ...原创 2020-04-14 19:41:14 · 2052 阅读 · 0 评论 -
PyTorch 加速数据读取, 提高 GPU 利用率
1 prefetch_generator使用 prefetch_generator 库在后台加载下一 batch 的数据。需要安装 prefetch_generator 库pip install prefetch_generator原本 PyTorch 默认的 DataLoader 会创建一些 worker 线程来预读取新的数据,但是除非这些线程的数据全部都被清空,这些线程才会读下一批数据。使用 prefetch_generator,我们可以保证线程不会等待,每个线程都总有至少一个数据在加载。原创 2021-02-01 12:47:03 · 7605 阅读 · 1 评论 -
Stochastic Weight Averaging
参考资料1 Stochastic Weight Averaging blog2 Stochastic Weight Averaging in PyTorch3 Stochastic Weight Averaging docs4 SWA Object Detection5 Averaging Weights Leads to Wider Optima and Better Generalization原创 2021-02-01 12:47:25 · 1369 阅读 · 0 评论 -
深度学习论文: Generalized Focal Loss V2及其PyTorch实现
深度学习论文: Generalized Focal Loss V2: Learning Reliable Localization Quality Estimation for Dense Object Detection及其PyTorch实现PDF: https://arxiv.org/pdf/2011.12885.pdfPyTorch: https://github.com/shanglianlm0525/PyTorch-NetworksPyTorch: https://github.com/sh原创 2021-02-01 12:48:17 · 1698 阅读 · 4 评论 -
深度学习论文: Generalized Focal Loss V1及其PyTorch实现
Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object DetectionPDF: https://arxiv.org/pdf/2006.04388.pdfPyTorch: https://github.com/shanglianlm0525/PyTorch-NetworksPyTorch: https://github.com/shanglianlm0525/CvPytorc原创 2021-02-01 12:47:56 · 1957 阅读 · 0 评论 -
深度学习论文: MicroNet: Towards Image Recognition with Extremely Low FLOPs及其PyTorch实现
深度学习论文: MicroNet: Towards Image Recognition with Extremely Low FLOPs及其PyTorch实现MicroNet: Towards Image Recognition with Extremely Low FLOPsPDF: https://arxiv.org/pdf/2011.12289.pdfPyTorch代码:https://github.com/shanglianlm0525/PyTorch-NetworksMicroNet基于2原创 2020-12-09 14:59:16 · 66 阅读 · 0 评论 -
yolov5中的Rectangular training和Rectangular inference
Rectangular trainingRectangular inferenceSquare InferenceRectangular Inference参考:https://github.com/ultralytics/yolov3/issues/232原创 2020-12-01 10:41:57 · 8465 阅读 · 10 评论 -
yolov5不能检测长宽比超过20的目标的解决方法
最近在使用YOLOv5代码的时候,发现yolov5对长宽比很大,如超过100+的目标检测,完全检测不出来,之前一直怀疑是anchors设置有问题,验证了很多次,证明不是anchors的问题,最后经组内小伙伴提醒,yolov5在数据增强的时候,默认设置了目标的长宽比最大为20,需要修改的def box_candidates(box1, box2, wh_thr=2, ar_thr=20, area_thr=0.1, special_classes=0): # box1(4,n), box2(4,n)原创 2020-11-19 15:43:24 · 5522 阅读 · 17 评论 -
深度学习论文: Rotate to Attend: Convolutional Triplet Attention Module及其PyTorch实现
Rotate to Attend: Convolutional Triplet Attention ModulePDF:https://arxiv.org/pdf/2010.03045.pdfPyTorch: https://github.com/shanglianlm0525/PyTorch-Networks1 概述2 Triplet Attention3 Experiments3-1 ImageNet3-2 COCO原创 2020-11-01 09:16:50 · 1469 阅读 · 3 评论 -
深度学习论文: MobileNeXt: Rethinking Bottleneck Structure for Efficient Mobile Network Design及其PyTorch实现
深度学习论文: MobileNeXt: Rethinking Bottleneck Structure for Efficient Mobile Network Design及其PyTorch实现MobileNeXt: Rethinking Bottleneck Structure for Efficient Mobile Network DesignPDF:https://arxiv.org/pdf/2007.02269.pdfPyTorch: https://github.com/shanglia原创 2020-10-28 09:43:18 · 3950 阅读 · 4 评论