![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文记录
文章平均质量分 85
麻雀2025
这个作者很懒,什么都没留下…
展开
-
BERT个人总结
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、BERT是什么?二、细节1.输入部分2.输出部分前言提示:这里可以添加本文要记录的大概内容:例如:看过很多次BERT,每次需要再查资料去回忆,特此记录。提示:以下是本篇文章正文内容,下面案例可供参考一、BERT是什么?Bidirectional Encoder Representation from Transformers,Transformer结构的一种,相较于Transformer增加了大批量语料去预.原创 2022-04-11 15:47:41 · 1042 阅读 · 0 评论 -
Group Normalization论文笔记--深入浅出组归一化
论文链接:https://arxiv.org/abs/1803.08494提出背景:Group Normalization(GN)是针对Batch Normalization(BN)在batch size较小时错误率较高而提出的改进算法,因为BN层的计算结果依赖当前batch的数据,当batch size较小时(比如2、4这样),该batch数据的均值和方差的代表性较差,因此对最后的结果影响也...原创 2018-11-25 21:16:01 · 2624 阅读 · 0 评论 -
FPN(feature pyramid networks)论文笔记
论文概述:这篇论文是CVPR2017年的文章,采用特征金字塔代替了传统的Scale handling 方法,截止目前(2018.11.26)引用量为529次。论文链接:https://arxiv.org/abs/1612.03144深度卷积神经网络天然地就能计算出金字塔特征结构,作者正是要利用这一点来构造一个在所有层级上都能有强语义的特征金字塔结构。 具体说来是要通过自顶向下(top-do...原创 2018-11-26 11:30:40 · 462 阅读 · 0 评论