深度学习相关知识
本专栏主要整理深度学习相关知识,大都参考借鉴大神博客简书等,加点自己的浅陋见解及吐槽哈哈哈哈,用于自学回顾,如有冒犯,侵删!
UHL1107
这个作者很懒,什么都没留下…
展开
-
深度学习之Miou
注:借鉴整理,仅供自学,侵删原创 2021-06-29 14:05:12 · 561 阅读 · 1 评论 -
深度学习之NMS
注:借鉴整理,仅供自学,侵删学过的东西又忘了,害,脑子呢参数阈值不是得分阈值,而是IOU阈值,大于阈值的说明重叠度高,去除。非极大值抑制(Non-Maximum Suppression)原创 2021-06-08 09:47:03 · 214 阅读 · 0 评论 -
深度学习之训练可视化
注:借鉴整理,仅供自学,侵删问题:No dashboards are active for the current data set. 解决tensorboard无法启动和显示问题(pycharm启动)解决方法:在生成events文件的上一级执行命令查看远端服务器上的Tensorboard(利用MobaXterm)...原创 2021-05-11 16:47:56 · 145 阅读 · 0 评论 -
深度学习之FPN和PAN
注:借鉴整理,仅供自学,侵删FPN是自顶向下,将高层的强语义特征传递下来,对整个金字塔进行增强,不过只增强了语义信息,对定位信息没有传递。PAN就是针对这一点,在FPN的后面添加一个自底向上的金字塔,对FPN补充,将低层的强定位特征传递上去,又被称之为“双塔战术”。FPN(feature pyramid networks)算法讲解PANet简单笔记...原创 2021-04-29 10:17:11 · 13051 阅读 · 1 评论 -
深度学习之Deepstream
注:借鉴整理,仅供自学,侵删DeepStream初步学习DeepStream5.0系列之yolov5使用原创 2021-04-28 15:57:49 · 244 阅读 · 0 评论 -
深度学习之P-R曲线、AP、mAP
注:借鉴整理,仅供自学,侵删深度学习-目标检测评估指标P-R曲线、AP、mAP原创 2021-04-25 10:15:47 · 894 阅读 · 0 评论 -
深度学习之TensorRT
注:借鉴整理,仅供自学,侵删TensorRT 5.0 学习笔记TensorRT简介–高性能深度学习支持引擎TensorRT 介绍TensorRT简介——高性能深度学习支持引擎TensorRT & DeepStream 加速深度学习推理计算讲解...原创 2021-04-22 09:40:08 · 118 阅读 · 0 评论 -
深度学习之one-stage&two-stage
注:借鉴整理,仅供自学,侵删目标检测——One-stage和Two-stage的详解目标检测之one-stage和two-stage网络的区别原创 2021-04-06 10:50:35 · 212 阅读 · 0 评论 -
深度学习之正则化
注:借鉴整理,仅供自学,侵删L2正则化、dropout、early-stopping原创 2021-03-31 10:17:57 · 98 阅读 · 0 评论 -
深度学习之优化器
注:借鉴整理,仅供自学,侵删原创 2021-03-31 09:57:23 · 83 阅读 · 0 评论 -
深度学习之激活函数
注:借鉴整理,仅供自学,侵删原创 2021-03-31 09:56:51 · 93 阅读 · 0 评论 -
深度学习之损失函数
注:借鉴整理,仅供自学,侵删原创 2021-03-31 09:56:19 · 433 阅读 · 1 评论 -
深度学习之生成器迭代器
注:借鉴整理,仅供自学,侵删pytorch::Dataloader中的迭代器和生成器应用详解pytorch中的数据加载模块 Dataloader,使用生成器来返回数据的索引,使用迭代器来返回需要的张量数据,可以在大量数据情况下,实现小批量循环迭代式的读取,避免了内存不足问题。...原创 2021-03-24 15:44:53 · 549 阅读 · 0 评论 -
深度学习&Python常用英文
jaccard overlap 交并比receptive field 感受野dense 稠密anchor = default box? 先验框aspect ratios 长宽比bounding boxes 边界框bounding regression 边界回归permute 置换bottleneck 瓶颈enumerate 枚举原创 2021-03-16 21:04:52 · 173 阅读 · 0 评论 -
深度学习之边框回归
注:借鉴整理,仅供自学边框回归(Bounding Box Regression)详解讲得很好,结合着评论看。原创 2021-03-11 21:48:03 · 26995 阅读 · 5 评论 -
深度学习之BN层
注:借鉴整理,仅供自学一批数据同通道归一处理在深度学习中,因为网络的层数非常多,如果数据分布在某一层开始有明显的偏移,随着网络的加深这一问题会加剧(这在BN的文章中被称之为internal covariate shift),进而导致模型优化的难度增加,甚至不能优化。所以,归一化就是要减缓这个问题博主讲的很好,直接借鉴,嘻嘻深度学习中 Batch Normalization为什么效果好?Batch Normalization 学习笔记(1)你可以选择比较大的初始学习率,让你的训练速度飙涨。以前还需原创 2021-03-11 18:59:50 · 1292 阅读 · 0 评论 -
深度学习之激活函数
注:借鉴整理,仅供自学要解决的很多问题大都是非线性问题,没有激活函数的神经网络输出都是输入的线性组合,因此需要引入激活函数,增加网络模型的非线性。激活函数:激活函数的引入是为了增加神经网络模型的非线性,没有激活函数每层就相当于矩阵相乘。每一层输出都是上层的输入的线性函数,无论神经网络多少层,输出都是输入的线性组合,就是最原始的感知机。加入激活函数,给神经元引入非线性因素,神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。神经网络用于实现复杂的函数,而非线性激活函数能够使神原创 2021-03-11 17:19:15 · 195 阅读 · 0 评论 -
深度学习之padding
注:借鉴整理,仅供自学Valid:用过滤器在输入的矩阵中按步长移动时候,会把最后的不足部分的列和行抛弃。Same:先在输入矩阵上下各加个值为0的行,在左右各加个值为0的列,也就是用0把原先的矩阵包裹一层,然后在移动的时候如果输入矩阵的列或者行长度不够,就用0来补齐。...原创 2021-03-11 11:49:37 · 753 阅读 · 0 评论 -
深度学习之优化器
注:借鉴整理,仅供自学视频讲解,有一定借鉴意义原创 2021-03-10 22:07:59 · 67 阅读 · 0 评论 -
深度学习之BP算法
注:借鉴整理,仅供自学神经网络BP反向传播算法原理和详细推导流程仔细来,跟着博客图片思路慢慢推导!原创 2021-03-10 19:21:11 · 78 阅读 · 0 评论 -
深度学习之感受野
注:借鉴整理,仅供自学在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。有些介绍是卷积神经网络每一层输出的特征图(feature map)上的像素点在上一层映射的区域大小。(角度不同,一个是全局来看,一个是局部上的)卷积神经网络中感受野的详细介绍...原创 2021-03-10 10:37:16 · 90 阅读 · 0 评论 -
深度学习之稀疏连接&权值共享
注:借鉴整理,仅供自学博客写的很好,直接copy哈哈哈热评:每一个卷积核只能提取到一个特征。所以,卷积层会有多个卷积核,来提取不同种类的特征。卷积神经网络的局部连接和权值共享如何理解卷积神经网络中的权值共享如何理解卷积神经网络中的权值共享?...原创 2021-03-09 10:49:05 · 951 阅读 · 0 评论 -
深度学习之全连接层
注:借鉴整理,仅供自学1 介绍全连接层也是一种卷积层。它的参数基本和卷积层的参数一样,只是它的卷积核大小和原数据大小一致。起到将学到的“分布式特征表示”映射到样本标记空间的作用。用 global average pooling 取代 FC,已经成为了大势所趋。全连接层的计算2 每次输入特征图尺寸必须一样...原创 2021-03-08 20:31:40 · 567 阅读 · 0 评论 -
深度学习之池化层
注:借鉴整理,仅供自学对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征。池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。评估特征提取的误差主要来自两个方面:(1)邻域大小受限造成的估计值方差增大,average能减小这种误差。(2)卷积层参数误差造成估计均值的偏移,max能减小这种误差。也就是说,average对背景保留更好,max对纹理提取更好。1 最大池化平移不变性2 平均池化...原创 2021-03-04 11:38:37 · 1468 阅读 · 1 评论