深度学习
Lehyu
这个作者很懒,什么都没留下…
展开
-
笔记(2):BP算法
基础神经网络的表示在基于梯度的优化方法中, 我们提到一个具有 nl+1nl+1 层的神经网络可以一般表示为 y′=f(W,b,X)=fnl(Wnl,bnl,fnl−1(Wnl−1,bnl−1,...f1(W1,b1,X)...))y^{'}=f(W,b,X)= f_{nl}(W^{nl},b^{nl},f_{nl-1}(W^{nl-1},b^{nl-1},...f_{1}(W^1,b^1,X)...原创 2016-08-17 16:22:36 · 450 阅读 · 0 评论 -
Ubuntu16.04安装CUDA7.5+Caffe+tensorflow
Ubuntu16.04+Cuda7.5+Caffe/TensorFlow翻译 2016-10-09 09:41:54 · 349 阅读 · 0 评论 -
笔记(6):Network In Network
Network In Network(NIN)模型要由于AlexNet,NIN只用了AlexNet十分之一的参数却比AlexNet更好,所以我们有必要了解一下这个模型的思路。原创 2016-08-25 15:43:58 · 1354 阅读 · 0 评论 -
笔记(5):卷积神经网络(3)
前面几篇文章大致讲了卷积神经网络的基本构成,其中最难的就是卷积层的方向推导过程,但是这应该不是问题,因为现在很多架构都已经实现好了,只需要我们去配置模型就可以,当然,如果能够自己理解然后推导出来更加好。下面介绍几个卷积神经网络的模型:AlexNet,GoogLeNet,VGG原创 2016-08-25 15:41:38 · 1755 阅读 · 0 评论 -
笔记(4):卷积神经网络(2)
卷积神经网络基础原创 2016-08-21 16:13:22 · 464 阅读 · 0 评论 -
笔记(3):卷积神经网络(1)
ConvolutionsWhy We Use ConvolutionsLearning features with large features that span the entire image(fully connected networks) is very computationally expensive. So we want another model, locally connec原创 2016-08-21 10:19:13 · 300 阅读 · 0 评论 -
笔记(1):基于梯度的优化方法
梯度下降:随机梯度下降、牛顿法、共轭梯度法原创 2016-08-16 22:35:19 · 3529 阅读 · 0 评论