- 博客(5)
- 资源 (3)
- 收藏
- 关注
转载 Attention注意力机制与self-attention自注意力机制(转载)
原文链接:Attention注意力机制与self-attention自注意力机制 - 知乎Attention注意力机制与self-attention自注意力机制为什么要因为注意力机制在Attention诞生之前,已经有CNN和RNN及其变体模型了,那为什么还要引入attention机制?主要有两个方面的原因,如下:(1)计算能力的限制:当要记住很多“信息“,模型就要变得更复杂,然而目前计算能力依然是限制神经网络发展的瓶颈。(2)优化算法的限制:LSTM只能在一定程度上缓解RNN中的长距离依
2021-11-04 19:57:35 2357
转载 目标检测之殇——小目标检测(转载)
原文链接:目标检测之殇——小目标检测 - 知乎目标检测作为一项发展了20年的技术,技术层面已经非常成熟,涌现了一大批如Faster R-CNN、RetinaNet、YOLO等可以在工业界实用的目标检测方法,但小目标检测性能差的问题至今也没有被完全解决。因为Swin Transformer的提出,COCO test-dev上的已经刷到61 ,但小目标检测性能(即)和大目标检测性能(即)仍然差距悬殊,是的1.7倍(74 AP vs 44 AP)。从某方面讲,现在COCO刷不上去的一个主要原...
2021-11-04 19:54:28 1837 2
原创 笔记:反卷积---对于反卷积的理解
声明:博主只是一个SR小菜鸟,这篇文章是博主自己的笔记,仅供参考。刚刚开始学习图像超分辨率的时候,我找了几篇这方面的论文,其中就有超分的开山之作:Learning a Deep Convolutional Network for Image Super-Resolution论文链接:https://arxiv.org/abs/1501.00092刚开始我以为这篇文章通过反卷积来将图像的分辨率调高的,但是阅读了文章后发现我错的离谱。所以我找了一篇关于反卷积的文章来学习。原文链接:CNN
2021-10-25 19:50:50 671
原创 python中.item的使用方法举例
python中,关于.item的使用方法的举例。import torcha = torch.tensor(5)print(a)print(a.item)运行结果:tensor(5)5
2021-10-18 09:19:47 485
用pytorch实现超分经典模型SRCNN
2021-10-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人