自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 全卷积网络

全卷积神经网络组成与解释

2024-03-23 17:23:27 360

原创 FPN和PAN

FPN的构建方式是从高分辨率的特征图开始向下采样,同时从低分辨率的特征图开始向上采样,将它们连接起来形成金字塔。在这个过程中,每一层特征图的信息都会与上下相邻层的特征图融合,这样可以使得高层特征图中的目标信息得以保留,同时低层特征图中的背景信息也可以被高层特征图所补充。经过这样的处理,FPN可以提高模型在多尺度检测任务上的精度,同时还可以在不影响检测速度的情况下提高检测速度。

2024-03-23 16:09:51 144

原创 关于RNN的一些理解

用纸笔训练循环神经网络RNN_哔哩哔哩_bilibili什么是循环神经网络 RNN (深度学习)?_哔哩哔哩_bilibiliTransformer 的“老母亲”RNN_哔哩哔哩_bilibili通俗易懂的RNN-CSDN博客

2024-01-20 22:07:44 492

原创 对于Batch Normalization的一点理解

我们可以看到这里由于x1与x2的巨大分布差异性导致w1和w2对于loss的影响是不同的,loss对于w2的导数较大,对于w1的导数较小,这就导致了如果想要loss往最快的方向减小,w1和w2需要调整的的大小差距也过大,但是learn rate一般都是一样的,所以为了解决这个问题,我们需要将输入调整到尽量相似的分布,此外下图也比较有道理。

2024-01-09 19:31:23 467

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除