深度学习
文章平均质量分 65
农夫山泉2号
关于交流可以发邮件:778961303@qq.com
展开
-
【多任务】——Multi-Task Learning as Multi-Objective Optimization代码阅读
多任务训练,帕累托优化原创 2023-03-30 19:51:08 · 783 阅读 · 0 评论 -
【数据集】——找深度学习相似的数据集
深度学习,相似数据集找一篇最新的sota论文,论文中训练,评测的数据集在paperwithcode网站中有相似数据集这个栏,这一般会有可视化,更加直观原创 2022-02-22 00:14:20 · 2210 阅读 · 0 评论 -
【数据标注】——标注工具评测labelimg/labelme
标注工具labelimg/labelme的对比评测原创 2021-12-02 11:47:10 · 1660 阅读 · 0 评论 -
【YOLOX】——目标监测(代码与原理详解)
code:https://github.com/Megvii-BaseDetection/YOLOX来自:旷视关键词:目标检测,精度原理部分摘自:https://bbs.cvmart.net/articles/51381. 基线我们选择YOLOv3+DarkNet53作为基线,接下来,我们将逐步介绍YOLOX的整个系统设计。Implementation Details 我们的训练配置从基线模型到最终模型基本一致。在COCO train2017上训练300epoch并进行5epoch的war.原创 2021-07-27 17:37:25 · 6981 阅读 · 16 评论 -
【DL】——Warmup学习率调整策略
referencehttps://www.zhihu.com/search?type=content&q=warmuphttps://blog.csdn.net/weixin_42990464/article/details/104640641原创 2021-07-07 19:41:40 · 2862 阅读 · 0 评论 -
【DL】——code = marshal.loads(raw_code) ValueError: bad marshal data (unknown type code)
Keras, 模型载入codefrom keras.models import model_from_jsonimport layers_builder as layersfrom keras.utils.generic_utils import CustomObjectScopepath = "/home/darknet/CM/23_SLAM/Semantic_SLAM/Third_Part/PSPNet_Keras_tensorflow/weights/keras/pspnet101_c.原创 2021-07-01 10:46:13 · 1509 阅读 · 0 评论 -
【论文】——Once-for-All: Train One Network and Specialize it for Efficient Deployment阅读
论文:Once-for-All: Train One Network and Specialize it for Efficient Deployment翻译自google摘要:我们解决了在许多设备和资源限制(尤其是在边缘设备)上进行有效推理的挑战性问题。常规方法要么手动设计,要么使用神经体系结构搜索(NAS)来找到专门的神经网络,并针对每种情况从头开始对其进行训练,这在计算上是禁止的(导致CO2排放量长达5辆汽车的使用寿命),因此无法扩展。在这项工作中,我们建议通过分离训练和搜索来训练一个支持所.原创 2021-03-02 16:47:21 · 843 阅读 · 0 评论 -
【deep learning】——网络训练技巧
训练的时候以0.5的概率随机选择输入的图片为3通道的彩图或3通道的灰度图。效果并不好实际测试的时候发现,只用彩图或只用灰度图这两种方式效果更好。。。。原创 2021-03-01 10:46:56 · 265 阅读 · 0 评论 -
【数据】——tiny ImageNet
转载自:https://www.kaggle.com/c/tiny-imagenet/overview简介MicroImageNet classification challenge is similar to the classification challenge in the full ImageNet ILSVRC. MicroImageNet contains 200 classes for training. Each class has 500 images. The test se.原创 2021-02-08 11:43:19 · 1282 阅读 · 0 评论 -
【语义分割】——又快又强:Deep Dual-resolution Networks for Real-time and Accurate Semantic Segmentation of Road
出处:哈尔滨工业大学论文code:暂未开源关键词: 实时语义分割语义分割是自动驾驶汽车了解周围场景的关键技术,对于实际的自动驾驶汽车来说,为了获得高精度的分割结果而花费大量的推理时间是不可取的。使用轻量级架构(编码器解码器或two-pathway)或推理在低分辨率图像。本文提出的模型在单张2080ti上DDRNet-slim能打到77.4% mIoU和230FPS,DDRNet-39能打到80.4% mIoU 和 23FPS1. 简介提出了一种新的深度双分辨率双边网络用于实时语义分割。.原创 2021-01-20 15:28:24 · 2972 阅读 · 2 评论 -
【池化方法】——softpool
转载自:AI人工智能初学者code1. 前言通常卷积神经网络(CNNs)都会使用池化pool操作来减少Feature Map的尺寸。这个过程对于实现局部空间不变和增加后续卷积的感受野是至关重要的。因此池化pool操作应该尽量减少Feature Map映射中信息的丢失。同时,应该限制计算和内存开销。为了满足这些需求,本文提出了一种快速、高效的池化方法SoftPool,softpool可以以指数加权方式累加激活。与一系列其他池化方法相比,SoftPool在下采样激活映射中保留了更多的信息。更精细的下.转载 2021-01-19 17:34:58 · 895 阅读 · 3 评论 -
【池化方法】——strip pooling
转载自:AI算法修炼营论文链接:https://arxiv.org/abs/2003.13328v1代码链接:https://github.com/Andrew-Qibin/SPNet1. 前言提高卷积神经网络中远程依赖关系建模能力的一种方法是采用self-attention机制或non-local模块。然而,它们会消耗大量内存。具体文章可以关注:视觉注意力机制:self-attention机制与non-local模块。对于non-local模块计算量大的问题的改进方法,可以关注文章:non-.转载 2021-01-19 16:35:44 · 1591 阅读 · 0 评论 -
【上采样】——深度学习上采样方式
最近邻上采样双线性上采样transposed convolutions光流上采样SFNetlearned upsamplehttps://arxiv.org/pdf/2011.06961.pdfcodeclass Upsample(nn.Module): def __init__(self, mode, channels=None): super(Upsample, self).__init__() self.interp = nn.functiona.原创 2021-01-18 16:53:15 · 696 阅读 · 0 评论 -
【论文阅读】——RGBD分割也能实时?Efficient RGB-D Semantic Segmentation for Indoor Scene Analysis
code:https://github.com/TUI-NICR/ESANet#time-inference摘要: 摘要—全面分析场景对于在不同环境中行动的机器人至关重要。语义分割可以增强各种后续任务,例如(语义辅助)人的感知,(语义)自由空间检测,(语义)映射和(语义)导航。在本文中,我们提出了一种高效且强大的RGB-D分割方法,该方法可以使用NVIDIA TensorRT进行高度优化。我们表明RGB-D分割优于处理RGB仅用于图像,并且如果仍然可以实时执行网络架构是经过精心设计的。1. 简介.原创 2021-01-18 15:02:08 · 3080 阅读 · 1 评论 -
【论文阅读】——RepVGG: Making VGG-style ConvNets Great Again(二)代码+原理
紧接上篇:RepVGG: Making VGG-style ConvNets Great Again这里我们解读其核心部分。核心思想其核心思想就是做一个算子融合,比如常见的conv + bn算子融合。只是这里做了更彻底,更好,将三个分支,融合成一个分支1. 重定义模型训练的时候,模型主要由如下的模块组成。一个stage中有3个分支。推理的时候,主要流程是:stride != 1 的时候conv3*3 + bn 融合 得到w1,b1kernel = branch.conv..原创 2021-01-13 19:01:16 · 1388 阅读 · 1 评论 -
【论文阅读】——RepVGG: Making VGG-style ConvNets Great Again
论文:https://arxiv.org/pdf/2101.03697.pdfcode:https://github.com/DingXiaoH/RepVGG北京信息科学与技术国家研究中心,旷视,香港科技大学等我们提出了一个简单但功能强大的卷积神经网络架构,该架构具有类似于VGG的推理时间主体,该主体仅由3×3卷积和ReLU的堆栈组成,而训练时间模型具有多分支拓扑。训练时间和推理时间体系结构的这种解耦是通过结构性重新参数化技术实现的,因此模型是名为RepVGG。在ImageNet上,RepVGG达.原创 2021-01-13 17:26:36 · 2642 阅读 · 1 评论 -
【pytorch】——报错/pytorch/aten/src/THCUNN/ClassNLLCriterion.cu:106: void cunn_ClassNLLCriterion_updateOu
转载自:https://blog.csdn.net/littlehaes/article/details/102806323头一次使用pytorch, 调用交叉熵损失函数nn.CrossEntropyLoss()的时候报错/pytorch/aten/src/THCUNN/ClassNLLCriterion.cu:106: void cunn_ClassNLLCriterion_updateOutput_kernel(Dtype *, Dtype *, Dtype *, long *, Dtype *,转载 2020-09-11 15:31:01 · 2577 阅读 · 0 评论 -
【商品分类数据集】——RP2K
链接:https://www.pinlandata.com/rp2k_dataset特点零售商品数据集2388个类别,35W张图片更像是一个零售商品的细腻度分类的数据集商品是人工标注的,而且已经crop成单张图片,每一个类别放入一个文件夹比京东的product10k更容易收敛,更加好用采用pytorch的imagefolder可以直接读取...原创 2020-09-04 18:44:30 · 3282 阅读 · 5 评论 -
【商品分类数据集】——Product-10k
来源: 京东链接: https://products-10k.github.io/更像是互联网电商的图片,比imagenet的干扰要少一些。标注格式name,class,group1.jpg,0,02.jpg,0,03.jpg,0,04.jpg,0,05.jpg,0,06.jpg,0,07.jpg,0,08.jpg,0,0例图问题标注文件train.csv中group有360个类别,但是标注时跳过了359采用group进行分类可能更好,针对有颜色变化的group,就划原创 2020-09-02 17:23:42 · 2258 阅读 · 5 评论 -
【数据库】——faiss ubuntu安装与简单测试python
简介: Faiss是Facebook AI团队开源的针对聚类和相似性搜索库,为稠密向量提供高效相似度搜索和聚类,支持十亿级别向量的搜索,是目前最为成熟的近似近邻搜索库。它包含多种搜索任意大小向量集(备注:向量集大小由RAM内存决定)的算法,以及用于算法评估和参数调整的支持代码。Faiss用C++编写,并提供与Numpy完美衔接的Python接口。除此以外,对一些核心算法提供了GPU实现。应用场景: 人脸识别,以图搜图 …作者: Facebook1. 新建一个conda环境这里新建一个conda环境,原创 2020-08-03 17:37:17 · 687 阅读 · 0 评论 -
【神经网络】——训练技巧
1. 技巧DCNLarger Batch Size, 64->196IOU LOSSSPP(yolov4中)referencePP-YOLOV3原创 2020-07-28 17:47:05 · 278 阅读 · 0 评论 -
【多目标跟踪】FairMOT项目测试
参考自:https://blog.csdn.net/sinat_33486980/article/details/105611295效果好不好不知道,但是肯定简单易懂。1. 项目地址https://github.com/ifzhang/FairMOT2. 效果 FAIRMOT多目标跟踪 3. 依赖gcc5.4pytorch>=1.2.0torchvison==0.4原创 2020-06-10 17:46:38 · 2984 阅读 · 3 评论 -
【OCR】ASTER.pytorch代码阅读
摘要: 这是文字识别OCR领域的一个小里程碑,后面的文章/项目或多或少都有它的影子,这里通过阅读理解代码的方式来解析一下。1. 模型结构图2. 模型结构整个模型很清晰,有以下几个模块组成:STN文字矫正CNN+LSTM特征提取+序列特征学习基于注意力机制的Decoder3. 项目阅读3.1 数据数据采用3 × 64 ×256 的输入归一化到[0,1],减0.5,除0.53.2 STN矫正模块STN的输入将3 × 64 ×256的图像,resize到 3 × 32 × 64原创 2020-05-09 15:31:04 · 1420 阅读 · 6 评论 -
【人像分割】随读
1. 视频人像分割参考自:https://zhuanlan.zhihu.com/p/48080465视频人像分割可以看成是一个特殊的Semantic Segmentation任务,他需要把视频中每帧图像的每一个像素点都打上一个类别标签。和典型的Semantic Segmentation任务有两个较大的差异:1.类别只有两个(人像和背景) 2.视频中人物的移动是连续的,通常几个连续帧之间人像的M...原创 2020-03-19 08:59:07 · 805 阅读 · 0 评论 -
ubuntu安装tensorrt
原文:https://blog.csdn.net/zong596568821xp/article/details/860775531. 安装#在home下新建文件夹,命名为tensorrt_tar,然后将下载的压缩文件拷贝进来解压tar xzvf TensorRT-5.0.2.6.Ubuntu-16.04.4.x86_64-gnu.cuda-9.0.cudnn7.3.tar #解压得到T...转载 2020-01-21 16:06:58 · 464 阅读 · 0 评论 -
python ffmpeg图片推流
code第一版可以参考https://blog.csdn.net/u011622208/article/details/95368929import subprocess as spsize = (int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)), int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))) # 视频流的参数 ...原创 2020-01-13 15:03:40 · 4959 阅读 · 4 评论 -
车辆检测数据集
转载自:https://blog.csdn.net/weixin_43653815/article/details/95514857链接:https://pan.baidu.com/s/1lTv-oMXFvuID8ByDPz8SvQ密码:v1os转载 2020-01-09 18:28:54 · 3836 阅读 · 7 评论 -
多次读取单个摄像头的视频流
转载自:https://zhuanlan.zhihu.com/p/38136322请读原文.如果你只有一个摄像头,为了测试多个摄像头的读取效果,你开启了多个读取窗口同时读取同一个摄像头,你会发现:“对于一般的摄像头,开启两个以上就会卡顿”,而这样操作是不对的。因为摄像头本身也是一个“服务器”,它无法为多个目标传输视频流,会遇到传输瓶颈。...转载 2019-12-28 11:00:35 · 700 阅读 · 0 评论 -
深度学习——防止过拟合
1. 模型容量2. 划分数据集3. 提前停止4. 正则化5. Dropout6. 数据增强增加数据集大小是解决过拟合最重要的途径。但是收集样本数据和标注往往是代价昂贵的,在有限的数据集上,通过数据增强技术可以增加训练的样本数量,获得一定程度上的性能提升...原创 2019-11-25 10:48:07 · 505 阅读 · 0 评论 -
百度EasyDL讲解
附一张图,具体可以看原文链接:转载 2019-11-11 17:48:25 · 918 阅读 · 0 评论 -
MSCOCO2017数据集下载
这个数据集我是找了很久,下了很久才下下来的。链接:https://www.floydhub.com/walter1218/datasets/mscoco/1本人速度5M/s原创 2019-10-12 14:36:36 · 5367 阅读 · 3 评论 -
pytorch对梯度进行可视化进行梯度检查
目的: 在训练神经网络的时候,有时候需要自己写操作,比如faster_rcnn中的roi_pooling,我们可以可视化前向传播的图像和反向传播的梯度图像,前向传播可以检查流程和计算的正确性,而反向传播则可以大概检查流程的正确性。实验可视化rroi_align的梯度pytorch 0.4.1及之前,需要声明需要参数,这里将图片数据声明为variableim_data = Variable...原创 2019-06-25 00:07:32 · 12148 阅读 · 3 评论 -
ubuntu16.04安装tensorRT
下载安装pip install tensorrt-5.1.5.0-cp35-none-linux_x86_64.whl问题1:ImportError: libnvinfer.so.5: cannot open shared object file: No such file or directory将TensorRT-5.1.5.0/lib中的文件复制到/usr/lib中就可以参考...原创 2019-07-09 13:49:20 · 701 阅读 · 0 评论 -
Aggregation Cross-Entropy for Sequence Recognition论文阅读
文章目录摘要1.简介2. 相关工作4. 实验4.1 场景文字识别4.1.3 实验结果摘要1.简介最近出现的CTC[13]和注意机制[1]通过绕过输入图像与其对应标签序列之间的先验对齐,显著缓解了这种顺序训练问题。但是CTC有大量的计算消耗,此外,CTC很难处理2D的序列问题。attention需要额外的标签和计算消耗,同时很难从零开始学习,此外attention对长序列的效果不好...原创 2019-07-25 17:03:41 · 1963 阅读 · 19 评论 -
滴滴云GPU服务器
滴滴云GPU服务器,每个小时3块多,应该是国内最便宜的了。但是宽带费用太贵了。临时用用就可以了。原创 2019-08-15 18:18:17 · 650 阅读 · 1 评论 -
深度学习模型学习率的设定——LSTM/Transformer
针对小的数据集,比如:几百,几千,小一万等,可以用简单的模型,自己用简单的卷积和池化串行搭就行了,比如lenet-5,不用上VGG或resnet,这样收敛速度更快。LSTM的学习速率为:0.001就可以收敛,而Transformer的速率要为0.0001才行...原创 2019-08-12 11:13:41 · 11712 阅读 · 0 评论 -
pytorch模型(nn.Module)初始化的影响
pytorch在定义模型的时候,是继承(nn.Module)类,一般是我们在初始化的时候,将不同的模块都定义好,在forward函数中进行调用,有的时候,在初始化的时候,会初始化一些没有用到的模块,而没有删除,或者在forward函数中没有用到,这样会影响网络的收敛速度。举个例子第一种:没有将self.attention和self.decoder删掉,forward中也没有使用这样收敛速度会变...原创 2019-08-12 13:33:31 · 3017 阅读 · 8 评论 -
论文推荐——Levenshtein Transformer
Levenshtein Transformer这个模型基于 Transformer,运算量自然不小;但是进行序列变换的方法是插入和删除,正好适合于源序列和目标序列差别不大(即 Levenshtein Distance 较小)的情况,也即模型的能力和任务所需要的能力恰好匹配。(当然该模型也可以用于源序列和目标序列差别较大的情况,不过这时候采用这种不断编辑源序列的方法不一定值当就是了。从文章的实验...原创 2019-08-16 16:56:35 · 1931 阅读 · 0 评论 -
深度学习样本类别不平衡
转载自目标检测小tricks之样本不均衡处理原创 2019-08-28 14:11:17 · 403 阅读 · 0 评论 -
COCO百度云下载链接
coco2014-2015,coco2017数据集链接:https://pan.baidu.com/s/1QT-s0iwVYlClMThVySzuTQ提取码:2pyrcoco2014链接:https://pan.baidu.com/s/1mz3_9IAYD0X8OD8f37ikvQ提取码:p41kcoco2015链接:https://pan.baidu.com/s/1BASqrUJ1...转载 2019-10-11 10:02:05 · 5494 阅读 · 4 评论