- 博客(46)
- 收藏
- 关注
原创 神经网络复现之Pytorch-Retinaface
博客链接视频链接一些理解:比较浅的网络适合检测小物体,特征图宽高大,例如52×52。比较深的网络适合检测大物体,特征图宽高小,例如13×13。分类预测中num_class×2中的2含义:序号为0的数大表示为背景,序号为1的数大表示为前景概率。深度可分离卷积:卷积核的通道数为1,卷积核个数与输入通道数相同,输入的每一层特征层与一个卷积核卷积获得一层特征层,最终得到卷积后高宽变化而通道数不变的输出特征层。可减少参数量。...
2021-06-22 10:49:04 237
原创 深度学习之NMS
注:借鉴整理,仅供自学,侵删学过的东西又忘了,害,脑子呢参数阈值不是得分阈值,而是IOU阈值,大于阈值的说明重叠度高,去除。非极大值抑制(Non-Maximum Suppression)
2021-06-08 09:47:03 225
原创 百度Paddle学习笔记
注:借鉴整理,仅供自学,侵删nonlocal_stages(Non-local Neural Networks)Non-local Neural NetworksNon-local算法笔记non-local Means(非局部均值)降噪算法及快速算法原理与实现FPNFPN(feature pyramid networks)算法讲解CascadeRCNN训练时区分正负样本的IOU阈值、检测时IOU阈值级联的方式,不再是为了找到hard negatives,而是通过调整bounding
2021-05-31 17:20:56 328 1
原创 深度学习之训练可视化
注:借鉴整理,仅供自学,侵删问题:No dashboards are active for the current data set. 解决tensorboard无法启动和显示问题(pycharm启动)解决方法:在生成events文件的上一级执行命令查看远端服务器上的Tensorboard(利用MobaXterm)...
2021-05-11 16:47:56 158
原创 深度学习之FPN和PAN
注:借鉴整理,仅供自学,侵删FPN是自顶向下,将高层的强语义特征传递下来,对整个金字塔进行增强,不过只增强了语义信息,对定位信息没有传递。PAN就是针对这一点,在FPN的后面添加一个自底向上的金字塔,对FPN补充,将低层的强定位特征传递上去,又被称之为“双塔战术”。FPN(feature pyramid networks)算法讲解PANet简单笔记...
2021-04-29 10:17:11 13184 1
原创 神经网络复现之Pytorch-yolov5
YOLOv5训练自己的数据集(超详细完整版)YOLOv5 实现目标检测(训练自己的数据集实现猫猫识别)
2021-04-25 09:53:59 484
原创 深度学习之TensorRT
注:借鉴整理,仅供自学,侵删TensorRT 5.0 学习笔记TensorRT简介–高性能深度学习支持引擎TensorRT 介绍TensorRT简介——高性能深度学习支持引擎TensorRT & DeepStream 加速深度学习推理计算讲解...
2021-04-22 09:40:08 131
原创 深度学习之one-stage&two-stage
注:借鉴整理,仅供自学,侵删目标检测——One-stage和Two-stage的详解目标检测之one-stage和two-stage网络的区别
2021-04-06 10:50:35 224
原创 深度学习之生成器迭代器
注:借鉴整理,仅供自学,侵删pytorch::Dataloader中的迭代器和生成器应用详解pytorch中的数据加载模块 Dataloader,使用生成器来返回数据的索引,使用迭代器来返回需要的张量数据,可以在大量数据情况下,实现小批量循环迭代式的读取,避免了内存不足问题。...
2021-03-24 15:44:53 575
原创 神经网络复现之Pytorch-SSD
博客链接视频链接一些总结:nets文件夹下vgg.py和ssd.py的add_extras将层添加到layers列表里。
2021-03-18 10:05:26 394
原创 Python学习之切片
注:借鉴整理,仅供自学,侵删python中[:,2]是什么意思Python中[ : n]、[m : ]、[-1]、[:-1]、[::-1]、[2::-1]和[1:]的含义
2021-03-17 11:17:51 161
原创 深度学习&Python常用英文
jaccard overlap 交并比receptive field 感受野dense 稠密anchor = default box? 先验框aspect ratios 长宽比bounding boxes 边界框bounding regression 边界回归permute 置换bottleneck 瓶颈enumerate 枚举
2021-03-16 21:04:52 185
原创 Python学习之编译器解释器
注:借鉴整理,仅供自学,侵删编译器:讲其他语言翻译成机器语言(01)的工具编译型语言:(如C语言)统一编译一次性执行。运行速度快,不可跨操作系统运行解释型语言:(python)翻译一行执行一行。运行速度慢,可跨操作系统运行。...
2021-03-15 21:35:48 93
原创 深度学习经典论文(七)R-CNN
注:借鉴整理,仅供自学,侵删简单来说,分类、定位和检测的区别如下:classify:是什么?localization:在哪里?是什么?(单个目标)detection:在哪里?分别是什么?(多个目标)1 算法流程RCNN算法分为4个步骤:一张图像生成1K~2K个候选区域对每个候选区域,使用深度网络提取特征特征送入每一类的SVM 分类器,判别是否属于该类使用回归器精细修正候选框位置...
2021-03-11 21:57:09 183 1
原创 深度学习之BN层
注:借鉴整理,仅供自学一批数据同通道归一处理在深度学习中,因为网络的层数非常多,如果数据分布在某一层开始有明显的偏移,随着网络的加深这一问题会加剧(这在BN的文章中被称之为internal covariate shift),进而导致模型优化的难度增加,甚至不能优化。所以,归一化就是要减缓这个问题博主讲的很好,直接借鉴,嘻嘻深度学习中 Batch Normalization为什么效果好?Batch Normalization 学习笔记(1)你可以选择比较大的初始学习率,让你的训练速度飙涨。以前还需
2021-03-11 18:59:50 1314
原创 深度学习之激活函数
注:借鉴整理,仅供自学要解决的很多问题大都是非线性问题,没有激活函数的神经网络输出都是输入的线性组合,因此需要引入激活函数,增加网络模型的非线性。激活函数:激活函数的引入是为了增加神经网络模型的非线性,没有激活函数每层就相当于矩阵相乘。每一层输出都是上层的输入的线性函数,无论神经网络多少层,输出都是输入的线性组合,就是最原始的感知机。加入激活函数,给神经元引入非线性因素,神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。神经网络用于实现复杂的函数,而非线性激活函数能够使神
2021-03-11 17:19:15 220
原创 深度学习经典论文(五)Inception V4
注:借鉴整理,仅供自学1 动机下面的准则来源于大量的实验,因此包含一定的推测,但实际证明基本都是有效的:避免表达瓶颈,特别是在网络靠前的地方。 信息流前向传播过程中显然不能经过高度压缩的层,即表达瓶颈。从input到output,feature map的宽和高基本都会逐渐变小,但是不能一下子就变得很小。比如你上来就来个kernel = 7, stride = 5 ,这样显然不合适。另外输出的维度channel,一般来说会逐渐增多(每层的num_output),否则网络会很难训练。(特征维度并不代表信
2021-03-11 17:04:19 214
原创 深度学习之padding
注:借鉴整理,仅供自学Valid:用过滤器在输入的矩阵中按步长移动时候,会把最后的不足部分的列和行抛弃。Same:先在输入矩阵上下各加个值为0的行,在左右各加个值为0的列,也就是用0把原先的矩阵包裹一层,然后在移动的时候如果输入矩阵的列或者行长度不够,就用0来补齐。...
2021-03-11 11:49:37 772
原创 深度学习经典论文(六)ResNet
注:借鉴整理,仅供自学1 提出背景我们知道,网络越深,咱们能获取的信息越多,而且特征也越丰富。但是根据实验表明,随着网络的加深,优化效果反而越差,测试数据和训练数据的准确率反而降低了。这是由于网络的加深会造成梯度爆炸和梯度消失的问题。(目前针对这种现象已经有了解决的方法:对输入数据和中间层的数据进行归一化操作,这种方法可以保证网络在反向传播中采用随机梯度下降(SGD),从而让网络达到收敛。但是,这个方法仅对几十层的网络有用,当网络再往深处走的时候,这种方法就无用武之地了。)另一个问题,就是退化问题。网
2021-03-10 21:08:20 622
原创 深度学习之感受野
注:借鉴整理,仅供自学在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。有些介绍是卷积神经网络每一层输出的特征图(feature map)上的像素点在上一层映射的区域大小。(角度不同,一个是全局来看,一个是局部上的)卷积神经网络中感受野的详细介绍...
2021-03-10 10:37:16 101
原创 深度学习经典论文(四)Inception V3
注:借鉴整理,仅供自学1 动机下面的准则来源于大量的实验,因此包含一定的推测,但实际证明基本都是有效的:避免表达瓶颈,特别是在网络靠前的地方。 信息流前向传播过程中显然不能经过高度压缩的层,即表达瓶颈。从input到output,feature map的宽和高基本都会逐渐变小,但是不能一下子就变得很小。比如你上来就来个kernel = 7, stride = 5 ,这样显然不合适。另外输出的维度channel,一般来说会逐渐增多(每层的num_output),否则网络会很难训练。(特征维度并不代表信
2021-03-09 17:11:16 673
原创 深度学习经典论文(三)GoogLeNet
注:借鉴整理,仅供自学1 动机既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能一般认为,网络越稀疏则越不容易过拟合,但过于稀疏性能又容易下降同时计算性价比又不高。GoogLeNet采用了多个小分支的结合,每个分支可以看作较为稀疏,但合并之后又成为一个大的密集矩阵。Inception 结构的主要思路是怎样用密集成分来近似最优的局部稀疏结构把可能用到的不同大小(既可以提取不同特征)的卷积核都用上,让网络自己学习,有用的权值大,无用的权值小(趋于0?)2 产生网络更深更宽的缺点:当训练集有
2021-03-09 16:30:02 553
原创 深度学习之稀疏连接&权值共享
注:借鉴整理,仅供自学博客写的很好,直接copy哈哈哈热评:每一个卷积核只能提取到一个特征。所以,卷积层会有多个卷积核,来提取不同种类的特征。卷积神经网络的局部连接和权值共享如何理解卷积神经网络中的权值共享如何理解卷积神经网络中的权值共享?...
2021-03-09 10:49:05 974
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人