Sundrops的专栏

deep learning

mask rcnn解读

上一篇中介绍faster rcnn,这次mask 基本在上次的基础上加了点代码,参考和引用1. mask rcnn slides 2. kaiming he maskrcnn 3. Ardian Umam mask rcnn,欢迎fork简版mask rcnn。

2017-11-21 00:08:52

阅读数 9250

评论数 2

faster rcnn源码解析

之前一直是使用faster rcnn对其中的代码并不是很了解,这次刚好复现mask rcnn就仔细阅读了faster rcnn,主要参考代码是pytorch-faster-rcnn ,部分参考和借用了以下博客的图片 [1] CNN目标检测(一):Faster RCNN详解 姊...

2017-11-20 23:50:01

阅读数 23284

评论数 9

LeetCode11-盛最多水的容器

/* * @lc app=leetcode.cn id=11 lang=cpp * * [11] 盛最多水的容器 * * https://leetcode-cn.com/problems/container-with-most-water/description/ * * algor...

2019-03-05 22:09:00

阅读数 9

评论数 0

LeetCode4:两个排序数组的中位数

问题 /* * @lc app=leetcode.cn id=4 lang=cpp * * [4] 寻找两个有序数组的中位数 * * https://leetcode-cn.com/problems/median-of-two-sorted-arrays/description/ * ...

2019-03-05 21:22:59

阅读数 27

评论数 0

Leetcode

要找工作了,基础算法太菜了,写个归并排序都要想一下才能写,要好好刷LeetCode了,好好记录刷题过程。

2019-03-03 22:57:03

阅读数 13

评论数 0

normalization专题

normalization大体分为3类feature normalization、weight normalization和gradient normalization,本文主要讲feature normalization,其他两个涉及的数学较多,一时无法理清 Feature normaliza...

2019-02-23 16:41:18

阅读数 44

评论数 0

style transfer/domain adaption简介

Texture Synthesis Using Convolutional Neural Networks Image Style Transfer Using Convolutional Neural Networks 16年cvpr 和A neural algorithm of artisti...

2019-02-11 20:45:40

阅读数 61

评论数 0

卷积神经网络结构简述(二)Inception系列网络

Inception是电影《盗梦空间》的外文原名,寓意是起点/开端,里面有一句经典的台词是: “we need to go deeper”,Inception Network取名于此 卷积神经网络结构简述(二)Inception系列网络WILL深度学习搬砖者​关注他50 人赞了该文章作为一...

2019-01-13 15:52:39

阅读数 123

评论数 0

Maxout netword and and NIN(Network in Network)

转载自论文笔记 《Maxout Networks》 && 《Network In Network》,有少量补充 各用一句话概括 常规卷积层: conv→relu maxout: several conv(full)→max NIN: server...

2019-01-13 15:25:46

阅读数 64

评论数 0

Python 的 import 机制

转载自[Python 的 import 机制](https://loggerhead.me/posts/python-de-import-ji-zhi.html)

2019-01-11 14:28:27

阅读数 44

评论数 0

Python模块搜索路径

Python模块搜索路径

2019-01-11 14:06:15

阅读数 36

评论数 0

strided convolution vs pooling

strided convolution vs pooling

2019-01-04 11:28:49

阅读数 121

评论数 0

DenseNet记录

Motivation Resnet的特征有重复,测试时随机去掉一些residual block,对精度的影响很小 Resnet的变种InceptionNet、ResNext等是扩宽网络的width来提升性能 基于上,densenet利用feature reuse的思想来提升网络性能,...

2019-01-01 20:10:55

阅读数 94

评论数 0

Mask RCNN细节记录

精度问题 在FPN论文中有个表格显示 C5+2fc要比C4+C5差很多,这里的原因一是C5+2fc的stride为32,feature map太小了,anchor数量也少,RPN的召回率太低了,第二个原因应该是RoIPooling造成的偏差影响更大了,因为stride太大了(这个原因待定,不知道对...

2018-12-20 16:40:54

阅读数 71

评论数 0

Deformable ConvNets v2: More Deformable, Better Results

之前介绍过dai老师的DCN v1Deformable Convolutional Networks解读,现在出了V2效果更赞,实验分析也很充分。 分析DCN Effective receptive fields 视野域中每个点对响应的不同,有效视野域即为输入扰动后对输出的影响程度。比如求...

2018-12-11 13:56:32

阅读数 207

评论数 0

Resnet实现细节记录

Resnet # 注意BasicBlock和Bottleneck def resnet18(pretrained=False, **kwargs): model = ResNet(BasicBlock, [2, 2, 2, 2], **kwargs) return model de...

2018-12-10 16:25:43

阅读数 100

评论数 0

Revisiting RCNN: On Awakening the Classification Power of Faster RCNN

之前听过该文作者Yunchao Wei给的一个talk,当时仔细思考这篇论文,只是感觉加了参数肯定会变好呀,但是实际上该文在探索检测任务中分类和定位的关系。实际上,检测任务中有很多值得探讨的东西,比如之前博客讲过的一篇论文在探究训练和测试尺寸一致的问题,这些点看似都很小,但是我之前一直都是猜测...

2018-12-06 11:52:35

阅读数 200

评论数 0

End-to-End Learning of Motion Representation for Video Understanding

本文TVNet(Total Variable)是在TV-L1的基础上,改变一些操作变成可以训练且速度提高。

2018-11-25 14:33:19

阅读数 73

评论数 0

Graph RCNN解读

这个十月一堆事,心情也比较烦闷,就一直没有动笔写blog,之前一直在做scene graph的生成,然后最近恰好看到graph-rcnn这篇很不错的文章,就解读做个记录 Framework 以往做scene graph generation,基本都是在faster rcnn基础上检测出图片的物...

2018-10-24 16:29:57

阅读数 313

评论数 0

[强化学习-7] 模型和规划(model and planning)

之前的博客都在讲从之前的experience中学习policy或者value function,这一篇博客讲解从之前的experience中学习model 何为model 一句话总结就是状态转移概率和奖励 Learning a model 状态转移概率s, a → s‘...

2018-09-07 11:40:48

阅读数 128

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭