学习周报
文章平均质量分 88
Far_Rainbow
踏石留印,抓铁有痕
展开
-
2021-11-04 学习周报
对Vision TransFormer架构的初步学习Paper:《An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale》Where:ICLR 2021本周初步学习了CV的TransFormer:Vision Transformer(ViT)。论文背景:CNN具有对全局特征把握不好的缺点,卷积得到的feature map是局部敏感的,对局部特征提取的很好,但是难以整合全局特征。Attention可以更好的关原创 2021-11-04 15:07:05 · 985 阅读 · 0 评论 -
2021-9-9 学习周报
池化和池化的改进pooling池化(pooling)做的就是降采样,对feature map进行降维,用局部像素(特征值)的组合代替原本图像,常用的最大池化保留纹理特征,平均池化保留整体的数据特征。https://www.zhihu.com/zvideo/1380611815215353856这个视频的00:00到01:03,前一分钟讲的实验,是什么现象,其实可以认为是卷积神经网络的池化,只不过是不经过卷积的池化,直接对原图进行降采样了Multi-scale order-less poolin原创 2021-09-09 22:47:05 · 81 阅读 · 0 评论 -
2021-09-23 学习周报
Bilinear PoolingPaper:《Bilinear CNN Models for Fine-grained Visual Recognition》Where:ICCV 2015Bilinear Pooling主要用于特征融合,bilinear是指对两个特征提取器提取的特征进行cross product。对于以CNN作为特征提取器,用外积组合两个CNN的feature map得到bilinear vector,再进行sum pooling,综合不同位置的特征得到全局表示,对其归一化以后用原创 2021-09-23 11:21:08 · 176 阅读 · 0 评论 -
2021-10-8 学习周报
Global Pooling关于pooling发展的趋势:由于pooling太过粗暴,操作复杂,目前业界已经逐渐放弃了对pooling的使用。替代方案 如下:采用 Global Pooling 以简化计算;增大conv的 stride 以免去附加的pooling操作摘自【深度学习: pooling (池化 / 降采样)】Global Average Pooling最早在《Network in Network》中提出,取代全连接层,减少参数量和降低过拟合。实现:用一个大小等于输入的fe原创 2021-10-08 13:10:54 · 137 阅读 · 0 评论 -
2021-10-22 学习周报
本次周报对三篇论文作学习总结,分别是2017年的两篇论文FPN和Focal Loss,以及2021.9.15新近发表的对FPN和Focal Loss改进的论文:达到SOTA的UMOP。Feature Pyramid NetworksPaper:《Feature Pyramid Networks for Object Detection》Where:CVPR 2017论文背景:多尺度目标检测时的问题是,RoI作用在最后一层,对于大目标的检测没有问题,但是对于小目标的检测就有些问题。因为对于小目标来说原创 2021-10-23 01:51:35 · 1564 阅读 · 0 评论