![](https://img-blog.csdnimg.cn/20190927151053287.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 69
deeplearn
黄小黄i
一个双鱼座的程序猿
展开
-
pytorch中conv和bn算子融合
在模型优化的过程中必不可少的就是算子融合了,最近在一个项目中使用了resnet其中使用很多的bn,这就必须要优化了,在优化之后推理时间提高了百分之四十。这部分代码是自己在网上查找资料写的,在查找的时候又在偶然中发现在pytorch1.10中有一个fx的库是可以很好处理这方面的东西的。后续我会对这个进行补充。话不多说直接上代码:import osimport torchimport torch.nn as nnfrom build_net import make_fuse_modelfrom原创 2022-02-18 17:24:12 · 2961 阅读 · 3 评论 -
win10初探yolox之环境安装与训练自己的数据集
最近被yolox爆屏,加上自己对于yolo系列有太多的情节之前还尝试过yolof,现在出现的yolox还有openvino推理,刚好自己会需要这部分内容,现在就尝试进行对其初步探索。一、基础配置cuda 10.1二、环境搭建1、安装yoloxgit clone git@github.com:Megvii-BaseDetection/YOLOX.gitcd YOLOXpip3 install -U pip && pip3 install -r requirements.txtp原创 2021-07-28 14:29:05 · 3141 阅读 · 5 评论 -
图像分割常见Loss
图像分割常见Loss最近在研究图像分割,由于自己之前没学习过,只能好好鼓捣,好久没写了。忙完分割项目总结一下。1、基于分类损失①:binary cross entropy二分类的交叉熵损失函数当类别数M等于2的时候,这个损失就是二元交叉熵Loss。交叉熵Loss可以用在大多数语义分割场景中,但它有个缺点,那就是对于只用分割前景和背景的时候,当前景像素的数量远远小于背景像素的数量时,即y=0的数量远大于y=1的数量,损失函数中y=0的成分就会占据主导,使得模型严重偏向背景,导致效果不好。#二值原创 2021-07-12 14:25:36 · 2304 阅读 · 2 评论 -
目标检测总结
写在前面的话:在前段时间自己开启了找工作的阶段,对于自己所接触的目标检测总体进行了一段总结,自己是写在笔记中上传到这无法显示图片,就直接分享笔记连接,又想看的就去看一下吧。以及下面是常问到的知识:1、roi pooling和roi algin的区别2、F1 scorep: tp/(tp+fp)r:tp/(tp+FN)F1-score : 2(PR)/(P+R)3、优化器4、网络结构:Faster Rcnninception5、dropout和BN6、传统图像处理对于下面的总结全部来原创 2021-04-20 09:44:47 · 1601 阅读 · 0 评论 -
深度学习总结
入职学习了一段时间也该有个总结了吧。深度学习一、深度学习框架TensorFlow、Pytorch、Caffe、Paddle、MXNet、Kera二、网络层级结构卷积神经网络只是针对图像起到一个特征提取器的作用。1、输入层2、卷积层卷积层是卷积神经网络的核心,而卷积又是卷积层的核心。卷积我们可以直观的理解为两个函数的一种运算,这种运算称为卷积运算。输入和卷积核都是张量,卷积运算就是用卷积分别乘以输入张量中的每个元素,然后输出一个代表每个输入信息的张量。其中卷积核又被称为权重过滤器,也可以称为原创 2020-12-11 09:24:13 · 4227 阅读 · 2 评论 -
利用SSD模型训练自己的数据集
一、运行环境windows10cuda==10.1python=3.7.x二、步骤1、下载SSD代码SSD-pytorch 代码下载地址: https://github.com/amdegroot/ssd.pytorch如果觉得下载比较慢可以参考https://blog.csdn.net/weixin_43218120/article/details/1082530252、准备数据集(1)想先测试的情况下可以使用VOC或者COCO数据集,数据集下载:链接:https://pan.baid原创 2020-10-28 20:59:04 · 2574 阅读 · 0 评论 -
神经网络中的激活函数
1、激活函数的作用在神经网络中,激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络能够很好的解决比较复杂的问题。如果不使用激活函数,神经网络中的每一层的输出只是承接了上一层输入函数的线性变换,无论神经网络有多少层,输出都是输入的线性组合。2、激活函数的发展经历了Sigmoid–>Tanh–>ReLU–>Leaky ReLU–>Maxout这样的过程,还有一个特殊的激活函数Softmax,因为它只会被应用在网络中的最后一层,用来进行最后的分类和归一化。3、Sigmo原创 2020-10-28 15:09:22 · 5822 阅读 · 0 评论 -
统计文件夹下所有文件的文件名到txt文件中
自己制作数据集,一个类别的图片标记完了需要做成一个train.txt,包含所有的训练图片的名称,怎么实现呢?1、在包含训练图片的文件夹中新建TXT文件。2、在TXT文件中输入 DIR ./B>train.txt (DIR命令后须有一空格)3、保存后将后缀名改为BAT。4、双击该文件即可生成一个train.txt。5、打开再根据自己要求修改即可。说明此方法只使用于Windows系统,且在按照上述方法的处理结果中包含文件名的后缀,如果想要去除文件名的后缀可以在txt文件中可以利用查找替换的原创 2020-10-28 11:53:04 · 989 阅读 · 0 评论 -
深度学习之神经网络中的Epoch、Iteration、Batchsize
自己平时在训练的过程中老是对于这些概念的混淆。就整理如下。1、batch-sizebatch-size :即批次的大小,也就是一次训练选取的样本的个数。batch-size的大小对模型的优化和速度有着影响,尤其是GPU的个数不多时,最好不要把数值设置的很大。在设置的过程中最好使用2的倍数,因为计算机的内存为2的指数倍,采用2进制编码。batch-size的正确选择就是为了在内存效率和内存容量之间寻找最佳平衡。上图中的表示为:①、全批次(蓝色),当数据集的数量比较少的时候,我们可以采用全数据集,原创 2020-10-26 15:08:22 · 1504 阅读 · 0 评论