pytorch
文章平均质量分 56
pytorch相关
曙光_deeplove
安徽霍邱人,长期从事遥感影像变化检测、机器学习、深度学习在图像分类、目标检测方面的应用工作
展开
-
pytorch中的torch.argmax函数
结论:dim的取值为[-2, 1]之间,只能取整,有四个数,0和-2对应,得到的是每一列的最大值,1和-1对应,得到的是每一行的最大值。如果参数中不写dim,则得到的是张量中最大的值对应的索引(从0开始)。比如x = torch.randn(3, 5),三行五列的矩阵,就是当dim=1时,就是说明结果是3个数字了,dim=0时,就是结果为5个数字。(2)此外不指定dim维度的时候,是直接按照顺序对所有元素进行遍历。1.6297这个元素就是最大的,其索引等于平铺后的15个元素中的第8个,即索引为9。转载 2023-07-05 16:04:44 · 401 阅读 · 0 评论 -
torchscript相关知识介绍(二)
torchscript相关知识介绍(二)原创 2022-09-06 11:17:43 · 2179 阅读 · 0 评论 -
mmdet之训练和推理
mmdetection的训练和推理原创 2022-06-20 14:10:09 · 4116 阅读 · 1 评论 -
深度学习之concatenate和elementwise操作(三)
本文参考:神经网络中通过add和concate(cat)的方式融合特征的不同_陈知鱼的博客-CSDN博客_神经网络cat一、cat与addconcat每个通道对应着相应的卷积核。而add形式则先将对应的特征图相加,再进行卷积操作,相当于加了一个先验:对应通道的特征图语义类似,从而对应的特征图共享一个卷积核。因此add可以被认为是特殊的concat形式。但是add的计算量要比concat的计算量小很多。下面来举个例子说明共享一个卷积核:(1)先分别卷积再add...原创 2022-05-24 16:17:56 · 3939 阅读 · 0 评论 -
yolo学习
一、letterbox机制该机制背景是:保持原尺寸的比例在深度学习中,模型的输入size通常是正方形尺寸的,比如300 x 300这样.直接resize的话,会把图像拉的变形.通常我们希望resize以后仍然保持图片的宽高比.我这里给出参考链接:opencv resize图片为正方形尺寸 - core! - 博客园 (cnblogs.com)python 图像等比例缩放_giganticpower的博客-CSDN博客_pytorch 图像缩放等比例缩放c++ opencv 实现 .原创 2022-05-04 10:41:08 · 3663 阅读 · 7 评论 -
onnx中的where op
onnx中的where op是pytorch中的什么操作产生的呢? 试了torch.where 以及 a[mask]等操作 都没有产生。 也没搜到。 想记录学习下 。答案:看下expand (我自己给的答案),我还没有验证原创 2022-04-21 09:22:00 · 2165 阅读 · 0 评论 -
randperm算子不支持导出onnx
问:想跟您请教下torch.randperm这个算子转onnx不支持应该怎么实现? 答复:可以先用 ONNX_FALLTHROUGH转成onnx,然后再给TensorRT写个plugin,转出来后也可以用ONNX-graphsurgeon把这个node展开成TRT支持的node(如果可以等效替换掉的话)。 注意:好像没法用TRT layer表示randperm:torch.randperm — PyTorch 1.11.0 documentation 有人也给了其他思路,比如:用rand原创 2022-04-21 09:13:53 · 992 阅读 · 0 评论 -
Training/Lr Schedules说明
Training/Lr Schedules说明_风筝大晒的博客-CSDN博客关于深度学习训练周期,训练时间表,训练时刻表,训练策略的说明——Training Schedules,Lr schd,1x,2x,mmDetection和Detectron中训练周期次数对比_三木每森的博客-CSDN博客_深度学习schedule...原创 2022-04-07 10:42:37 · 1141 阅读 · 0 评论 -
特征可视化方法及实现
一份可视化特征图的代码GitHub - kvfrans/feature-visualization: tensorflow example of visualizing features from a convnet原创 2022-04-07 10:01:23 · 568 阅读 · 0 评论 -
windows10环境下的源码编译安装torchvision
本文主要参考:(1)Ubuntu18下编译安装torchvision—C++API的详细过程_Flag_ing的博客-CSDN博客_编译torchvision(2)libtorch和torchvision的编译安装_陈建驱的博客-CSDN博客_torchvision编译(3)Win10编译安装libtorch+torchvision_白刃的阿白的博客-CSDN博客_win10编译libtorch一、前言最近使用libtorch做yolov5网络模型的部署,使用的是大走走的yo原创 2022-02-07 14:16:55 · 5882 阅读 · 3 评论 -
pytorch中的-1
pytorch中的-1表示该维度自动计算。原创 2022-01-20 20:34:43 · 1048 阅读 · 0 评论 -
python列表乘一个数字
在学习yolov5的yolo.py文件中的Detect类时,出现python列表乘一个数字,我很久没有碰python代码了,都忘记了,因此这里记录一下:这里参考文章如下:python 列表乘一个数字_hq_cjj的博客-CSDN博客_python列表乘以一个数...原创 2022-01-20 17:39:54 · 2180 阅读 · 0 评论 -
Pytorch中contiguous()函数理解
参考:Pytorch中contiguous()函数理解_清晨的光明-CSDN博客_contiguous函数转载 2022-01-20 17:13:59 · 130 阅读 · 0 评论 -
PyTorch中网络里面的inplace=True字段的意思
在例如nn.LeakyReLU(inplace=True)中的inplace字段是什么意思呢?有什么用?inplace=True的意思是进行原地操作,例如x=x+5,对x就是一个原地操作,y=x+5,x=y,完成了与x=x+5同样的功能但是不是原地操作,上面LeakyReLU中的inplace=True的含义是一样的,是对于Conv2d这样的上层网络传递下来的tensor直接进行修改,好处就是可以节省运算内存,不用多储存变量y。链接:https://www.jianshu.com/p/8385aa7转载 2022-01-20 15:51:02 · 369 阅读 · 0 评论