- 博客(9)
- 资源 (23)
- 收藏
- 关注
原创 linux install ffmpeg
sudo apt-add-repository ppa:mc3man/trusty-mediasudo apt-get updatesudo apt-get install ffmpeg gstreamer0.10-ffmpeg
2016-04-30 07:30:03 922
转载 光流
http://docs.opencv.org/3.1.0/d7/d8b/tutorial_py_lucas_kanade.html#gsc.tab=0
2016-04-18 19:53:02 658
原创 Caffe专业术语
Blob:the blob is the standard array and unified memory interface for the framework. The details of blob describe how information is stored and communicated in and across layers and nets. A Blob is a
2016-04-14 08:38:55 608
转载 池化方法总结(Pooling)
转自:http://blog.csdn.net/danieljianfeng/article/details/42433475在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。为什么可以通过降低维度呢?因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一
2016-04-12 19:17:09 9624
转载 DL经典论文
转自:http://blog.sciencenet.cn/blog-520608-751519.html主要是顺着Bengio的PAMI review的文章找出来的。包括几本综述文章,将近100篇论文,各位山头们的Presentation。全部都可以在google上找到。BTW:由于我对视觉尤其是检测识别比较感兴趣,所以关于DL的应用主要都是跟Vision相关的。在其他方面比如语音
2016-04-12 18:54:17 884
转载 What is the role of the activation function in a neural network?
原文转自:https://www.quora.com/What-is-the-role-of-the-activation-function-in-a-neural-networkThe goal of (ordinary least-squares) linear regression is to find the optimal weights that -- when linearl
2016-04-11 17:16:36 1147
原创 Neural Network中的Activation function作用
激活函数的作用谈到激活函数,必须要提到回归的问题,我们做线性回归的目的是为了优化权重。由于每次输入新的数据都要进行调整权重,做回归的主要目的是将目标特征更明显,将区别较大的噪声排除掉。因此,我们引入了激活函数。由于在线性回归中要求输入是可微的,但输入往往是非线性的,加入激活函数可以具备去燥的作用,而且可以将非线性输入变为线性输入。主要类别: tanh
2016-04-11 17:07:13 1107
原创 训练过程中的Overfitting问题
Preventing overfittingEarly stoppingWeight decayTraining with noise因此,防止过拟合的常用方法有三种:第一,提前阻止。通过增加评估数据集,及时调整训练过程中的权重w,使得cost function以最快的速度下降;第二,权重衰减法。这里采用的是正则法,通过加入正则项,使得权重及时得到更新,但是这种方法不易操作
2016-04-09 20:23:43 1105
原创 bin to npy
import caffe % suppose caffe is already in the path of Pythonimport numpy as npimport sysblob = caffe.proto.caffe_pb2.BlobProto()data = open( 'data/ilsvrc12/imagenet_mean.binaryproto' , 'rb' ).re
2016-04-09 11:35:23 1502
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人