一张图
ture_dream
这个作者很懒,什么都没留下…
展开
-
一张图理解卷积层的参数共享
人工神经网络缺点是参数很多,卷积层可以减少参数,减少计算量,因为卷积层的参数共享特性。在学习了点击打开链接以后,继续看下图:学习了点击打开链接知道,小盆友1视野很小,每个感受野对应一些参数,假设为w1w2w3w4,每滑动一次,另一个感受野又对应四个w,因为每个小朋友都有自己处事原则(不管看什么,参数不变),所以一个小盆友只要学习四个参数。一幅图只要4*5=20个原创 2016-11-20 15:41:41 · 21124 阅读 · 3 评论 -
一张图理解训练的BP反向传播
经过同学许可,借用他的图来讲讲深度学习的反向传播,不涉及具体推导,宏观把握原理。深度学习训练过程是训练模型的过程,实质上不过是权值更新的过程,即图上公式从W(old)到W(new)的过程,当然这里是循环往复、迭代进行。h(x)是旧的权值参数和特征向量的内积,是实数。再经过激活函数例如sigmoid函数归一化带到网络的预值f(x),最后测计算损失函数J,公式里y是标签值,你懂得,预测原创 2017-08-05 15:56:52 · 878 阅读 · 0 评论 -
少年包青天里的一个分尸案 来龙去脉
昨天晚上夜谈的时候,聊到了少年包青天里的一个分尸案,今天查了查,叫《隐逸村案》,里面有用6个人的尸体拼出7个人的假象,马上就想到了《占星术杀人案》。 其实用这个想法的小说还真不少,包青天里的应该是借鉴了金田一中的《异人馆村杀人事件》,而金田一是借鉴了岛田的占星术,还有庄秦的《夜长梦多》也是借鉴了岛田的占星术,这些小说里面都有拼凑尸体的诡计,但其中做的最完美的还属占星术了。 占星转载 2017-03-06 15:49:03 · 18589 阅读 · 0 评论 -
一张图看caffe目录结构
Caffe是用C++编写的深度学习框架,大量使用类的封装,继承,多态Caffe根目录下执行tree命令查看caffe目录结构$ cd /home/name/Documents/caffe-master$ tree -d.├── build -> .build_release //编译结果存放处,.build_release不是一个目录找不到├── cm原创 2016-11-26 10:46:34 · 4111 阅读 · 0 评论 -
一张图读懂caffe架构
解释两个部分:一:预处理图像的leveldb构建 输入:一批图像和label (2和3) 输出:leveldb (4) 指令里包含如下信息:conver_imageset (构建leveldb的可运行程序)train/ (此目录放处理的jpg或者其他格式的图像)label.txt (图像文件名及其label信息)输出的leveldb文件夹的名字CPU/GPU (指定是在原创 2016-11-23 14:28:02 · 6185 阅读 · 0 评论 -
Python神图
偶尔从别的地方看来的,只有一张图,感觉还是不错的,讲的还是挺全的,Python初学者可以看看原文: http://blog.csdn.net/gavin__zhou/article/details/49874141转载 2016-11-01 19:43:52 · 510 阅读 · 0 评论 -
一张图理解Faster—RCNN测试流程
请教同学Faster—RCNN测试流程,他让我看一个Faster—RCNN模型文件(自己找哈):看了后,自己画了一张图:注:conv:卷积 relu:(rectified linear units)激活函数 fc:全连接 RPN:region proposal network cls原创 2016-10-19 17:22:51 · 8385 阅读 · 2 评论 -
一张图理解卷积神经网络卷积层和感受野
局部关联:每个像素点和她周边的点广联大(图像连续)形象地说,左边是32*32*3的图像,我们让五个小朋友分别看,右边的12345小盆友分别关注图像的颜色,轮廓,纹理等等信息。五个小朋友对应五个神经元,也叫filter,每个小盆友视野有限,每次只看一小块,慢慢滑动直到看完,那么左图中的小块叫感受野(receptive field)。每个小朋友看完一张图得到一张图,五个人得出五张,即d原创 2016-11-20 15:16:13 · 15054 阅读 · 4 评论