![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习基础
文章平均质量分 96
深度学习的基础知识
丁希希哇
这个作者很懒,什么都没留下…
展开
-
TensorFlow代码逻辑 vs PyTorch代码逻辑
return x在TensorFlow中,通常使用tf.keras模块来定义模型。可以使用Sequential API或Functional API。])PyTorch中,定义模型时需要继承nn.Module类并实现forward方法return x。原创 2024-07-02 21:16:26 · 820 阅读 · 3 评论 -
NMS 系列:soft,softer,weighted,iou-guided, Diou, Adaptive
非极大抑制的功能:筛选出一定区域内属于同一种类得分最大的框大多数目标检测算法(稠密预测)在得到最终的预测结果时,特征图的每个位置都会输出多个检测结果,整个特征图上会出很多个重叠的框。例如要检测一辆车,可能会有多个bbox都把这辆车给框了出来,因此需要从这些bbox中选出框得最好的,删除掉其它的。要定义框得好与不好,就得看bbox的预测置信度;为了删掉重叠的多余的框,就得利用IoU来检查重叠程度。nms的局限性:对于IOU>阈值的两个相邻的检测框,传统的NMS的做法是将其得分暴力置零相当于直接舍弃。原创 2024-04-03 08:03:07 · 1499 阅读 · 0 评论 -
神经网络发展历程:DNN、CNN、RNN
具体做法是,在局部连接中隐藏层的每一个神经元连接的是一个10 × 10的局部图像,因此有10 × 10个权值参数,将这10 × 10个权值参数共享给剩下的神经元,也就是说隐藏层中10^6个神经元的权值参数相同,那么此时不管隐藏层神经元的数目是多少,需要训练的参数就是这 10 × 10个权值参数(也就是卷积核(也称滤波器)的大小),如下图。而在RNN中,神经元的输出可以在下一个时间段直接作用到自身,即第i层神经元在m时刻的输入,除了(i-1)层神经元在该时刻的输出外,还包括其自身在(m-1)时刻的输出。原创 2024-04-02 08:35:05 · 1672 阅读 · 3 评论 -
AutoEncoder自动编码器、VAE变分自编码器、VQVAE量子化(离散化)的自编码器
文章目录AutoEncoder自动编码器(一)AutoEncoder的基本架构(二)AutoEncoder的概率理解(三)AutoEncoder的局限VAE变分自编码器(Variational AutoEncoder)(一)VAE简介(二)VAE的概率理解(三)VAE与AE(三)VAE与GAN(四)VAE的损失函数VQVAE量子化(离散化)的自编码器(一)VQVAE简介(二)VQVAE与VAE(三)VQVAE的训练损失AutoEncoder自动编码器(一)AutoEncoder的基本架构最基础的Au原创 2024-02-03 20:20:00 · 1275 阅读 · 0 评论 -
可变形注意力(Deformable Attention)及其拓展
右侧的可变形卷积因为感受野的每一个点都有偏移量,造成卷积核在图片上滑动时对应的感受野的点不会重复选择,这意味着会采样9 x 9=81个采样点,比传统卷积更多。对感受野上的每一个点加一个偏移量 ,偏移的大小是通过学习得到的 ,偏移后感受野不再是个正方形,而是和物体的实际形状相匹配。传统卷积核在卷积过程中由于会存在重叠,最终输出后的感受野范围小,而可变性卷积中因为有偏移,不会有重叠,从而感受野范围更大。可变形卷积将固定形状的卷积过程改造成了能适应物体形状的可变的卷积过程,从而使结构适应物体形变的能力更强。原创 2024-02-23 17:38:45 · 5394 阅读 · 1 评论 -
IOU 系列:IOU,GIOU,DIOU,CIOU
边界框回归的三大集合因素:重叠面积、中心点距离、纵横比IoU:考虑了重叠面积,归一化坐标尺度;GIoU:考虑了重叠面积,基于IoU解决边界框不想交时loss等于0的问题;DIoU:考虑了重叠面积、中心点距离,基于IoU解决GIoU收敛慢的问题;CIoU:考虑了重叠面积、中心点距离、纵横比,基于DIoU提升回归精确度。【目标检测】IoU、GIoU、DIoU、CIoU、EIoU 5大评价指标IoU系列(IoU, GIoU, DIoU, CIoU)原创 2024-01-29 14:09:57 · 1670 阅读 · 0 评论 -
常见优化器对比:梯度下降法、带动量的梯度下降法、Adagrad、RMSProp、Adam
优化器 |SGD |Momentum |Adagrad |RMSProp |Adam。原创 2024-03-21 18:50:43 · 1859 阅读 · 0 评论 -
归一化总结:BN、LN、IN、GN、SN
在机器学习领域中,不同评价指标(即一组特征中的不同特征就是所述的不同评价指标)往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。即,原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。数据归一化一般有[0,1]归一化和正态分布归一化两种方法:[0,1]归一化:使结果值映射到[0,1]之间。原创 2024-03-28 17:55:17 · 2268 阅读 · 0 评论