![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习入门2
Madname
这个作者很懒,什么都没留下…
展开
-
caffe
转载:https://blog.csdn.net/cham3/article/details/72141753 ...转载 2019-11-01 09:33:38 · 71 阅读 · 0 评论 -
数据增强
1、水平翻转2、随机裁剪和缩放平移、旋转(整个图)、拉伸、修剪原创 2019-10-31 18:32:42 · 129 阅读 · 0 评论 -
Faster R-CNN - 目标检测详解
https://blog.csdn.net/zziahgf/article/details/79311275转载 2019-10-31 16:42:38 · 104 阅读 · 0 评论 -
长短时记忆网络LSTM(基本理论)
为了解决RNN中出现的问题(梯度消失和弥散),所以有LSTM长短时记忆网络总体框架将LSTM分为一小部分一小部分RNN最大的问题就是不会忘记,LSTM会决定,选择有价值的保留,没价值的舍弃,需要设定控制参数。比如[0,0.5,1],0舍弃,0.5部分保留,1保留,那么C是如何做到的?x号表示门,sigmoid和乘的操作整个LSTM网络...原创 2019-10-30 21:13:34 · 473 阅读 · 0 评论 -
循环神经网络RNN(基本理论)
递归神经网络目的是为了利用中间信息(feature),中间信息的保留,例如,“我出生在中国,所以我说中国话”,“说"后面可以跟很多词,但是如果已知出生在中国,那么"中国话"这个词的预测概率就会大幅上升。1先对话分词,将分词结果往里输入,当做RNN每一步的输入值,当然,每一步的中间结果并不是一定要追求的,目的是最后的输出结果,比如"我"并不是重要的,重要的是"说”,RNN适用于自然语言处理R...转载 2019-10-30 20:44:14 · 197 阅读 · 0 评论 -
卷积神经网络的反向传播
首先是池化层,比较简单而后是卷积层先说一下前向传播第n个bitch,c通道,h,w为输入的高和宽(这里9x9),用3个3x3的filter提取出3个4x4的特征图(feature map),反向传播前向传播中wx=out,那么反向传播就用dout*x得到dw[0,0,:,:],dw[0,1,:,:],dw[0,2,:,:]。(每个通道)dw[1,:,:,:]也是一样的参考:...原创 2019-10-30 11:20:08 · 278 阅读 · 0 评论 -
2、卷积神经网络参数分析
stride滑动步长是经验之谈7x7的选择3x3的filter,当stride为2的时候输出为3x3为了利用边缘信息,需要填充Pad如图。计算公式(不知道怎么插入公式)例如输入32x32x3,用10个filter,滑动步长为1,填充pad为2带入计算公式算的out为32x32,又有10个filter,于是输出32x32x10权值共享特征图由10个32x32x1的特征图组成...原创 2019-10-27 21:47:01 · 482 阅读 · 0 评论 -
1、卷积神经网络计算过程
A为神经网络,B为卷积神经网络卷积神经网络的组成假设现在有一个图像输入,用一个filter进行卷积,提取出来特征图计算过程如下,3通道的图要用3通道的filter按通道依次对应相乘,然后w0(11)=f11+f12+f13=2而b0=1,所以wx+b=3,out的第一个位子为3而后stride滑动步长取2,计算同上依次算完o[:,:,0]的9个方格,o[:,:,1]将w1、b1...原创 2019-10-25 16:43:31 · 1951 阅读 · 0 评论