论文
涛涛酱
北邮研究僧在读
展开
-
Alexnet理解及实现
目录1. 前言2. 数据集3. 结构3.1 ReLU非线性函数(ReLU Nonlinearity)3.2 Training on Multiple GPUs3.3 LRN(局部响应归一化)3.4 Overlapping Pooling:3.5 整体结构3.5.1 Alexnet结构3.5.2 各层训练参数的计算3.5.3 参数计算公式4. 减少过度拟合4.1 数据增益4.2 Dropout5...原创 2019-01-26 15:08:36 · 2024 阅读 · 0 评论 -
Generative Adversial Nets 理解及实现
1. 前言GAN中蕴含了零和(zero-sum)游戏的理论。GAN有两个网络,一个生成器(G)和一个判别器(D),两者互相竞争。生成器目的是使判别器无法区分输入的数据是来自真实数据还是它生成的假数据。判别器目的是学习当前的数据是来自真实数据还是G生成的数据。这个游戏论的最优解是它俩达到纳什平衡,即G生成的假数据的分布和原始数据的分布是基本一致的,而D对当前数据来自真实数据还是假数据的概率输出只能...原创 2019-02-02 20:39:04 · 724 阅读 · 0 评论 -
【Paper Reading】Relation Networks for object detection
算是读了四个半天吧。读是读完了,也理解了主要问题。有点不太知道怎么讲。更别说PPT了。。。未完待续,先把资料码起来:[1] 全文翻译:https://www.cnblogs.com/Ann21/p/9787715.html[2] 一些地方的理解:https://blog.csdn.net/qq_21949357/article/details/80369848[3] https://bl...原创 2019-03-21 20:50:14 · 422 阅读 · 0 评论 -
【Paper Reading】Deep Neural Networks for Object Detection
111原创 2019-03-31 17:00:45 · 304 阅读 · 0 评论 -
Faster Rcnn
持续了大概一个月。终于看完源码,本来想写一篇万字长文,还是没写。因为本身对python不是很熟悉,路途坎坷。先记下阅读过程中看的博客。损失函数:损失函数的代码实现部分和smoothl1公式有出入,不知道为什么。https://blog.csdn.net/Mr_health/article/details/84970776RPN 源码解析:https://blog.csdn....原创 2019-07-05 10:29:27 · 482 阅读 · 0 评论