深度学习
薛定谔的小佩奇
这个作者很懒,什么都没留下…
展开
-
RCNN(Regions with CNN features)
RCNN(Regions with CNN features)是将CNN方法应用到目标检测问题上的一个里程碑,由年轻有为的RBG大神提出,借助CNN良好的特征提取和分类性能,通过RegionProposal方法实现目标检测问题的转化。 算法可以分为四步: 1)候选...原创 2018-09-20 13:51:32 · 594 阅读 · 0 评论 -
Bi-directional LSTM RNN(双向长短时记忆循环神经网络)
转自:http://blog.csdn.net/jojozhangju/article/details/519822541. Recurrent Neural Network (RNN)尽管从多层感知器(MLP)到循环神经网络(RNN)的扩展看起来微不足道,但是这对于序列的学习具有深远的意义。循环神经网络(RNN)的使用是用来处理序列数据的。在传统的神经网络中模型中,层与层之间是全连接的,每层...原创 2018-09-21 00:28:19 · 2043 阅读 · 0 评论 -
CapsuleNet
最近hinton很早就提出了一个结构名为capsule,旨在解决cnn的固有缺点,本文是第一篇实现hinton capsule结构的论文Dynamic Routing Between Capsules,本文很大程度上翻译自“Understanding Dynamic Routing between Capsules (Capsule Networks)” 代码来自: XifengGuo...原创 2018-09-21 00:33:52 · 283 阅读 · 0 评论 -
Embedding
One-hot Embedding假设一共有个物体,每个物体有自己唯一的id,那么从物体的集合到有一个trivial的嵌入,就是把它映射到中的标准基,这种嵌入叫做One-hot embedding/encoding.应用中一般将物体嵌入到一个低维空间 ,只需要再compose上一个从到的线性映射就好了。每一个 的矩阵都定义了到的一个线性映射: 。当 是一个标准基向量的时候,对应矩阵中...原创 2018-09-22 19:54:01 · 1002 阅读 · 0 评论 -
Lenet/Alexnet/VGG/GoogleNet
-深度学习网络学习总结卷积神经网络,是深度学习方向的主流方向,目前具有代表的网络如下:lenet alexnet vgg googlenet, 大部分卷积神经网络都由conv层、pool层、rule层、LRN层、fc层、softmax、dropout等层组成。本文对以上网络依次介绍。:Lenet,1986年Alexnet,2012年GoogleNet,2014年VGG,2014年De...原创 2018-10-30 20:29:25 · 278 阅读 · 0 评论 -
图像处理
要学习高斯模糊我们首先要知道一些基本概念:线性滤波与卷积的基本概念      线性滤波可以说是图像处理最基本的方法,它可以允许我们对图像进行处理,产生很多不同的效果。做法很简单。首先,我们有一个二维的滤波器矩阵(有个高大上的名字叫卷积核)和一个要处理的二维图像。然后,对于图像的每一个像素点,...原创 2018-11-09 14:00:43 · 242 阅读 · 0 评论