深度学习
文章平均质量分 82
zoeyunjj
这个作者很懒,什么都没留下…
展开
-
Deep Learning in NLP (一)词向量和语言模型
这篇博客是我看了半年的论文后,自己对 Deep Learning 在 NLP 领域中应用的理解和总结,在此分享。其中必然有局限性,欢迎各种交流,随便拍。 Deep Learning 算法已经在图像和音频领域取得了惊人的成果,但是在 NLP 领域中尚未见到如此激动人心的结果。关于这个原因,引一条我比较赞同的微博。@王威廉:Steve Renals算了一下icassp录取文章题目转载 2016-05-24 08:44:13 · 1042 阅读 · 0 评论 -
ICCV 2015 深度学习文章
《Deep Residual Learning for Image Recognition》. 2015. arXiv pre-print.《Training Very Deep Networks》.Neural Information Processing Systems (NIPS 2015 Spotlight).《Delving Deep into Rectifi转载 2016-10-11 10:38:43 · 1326 阅读 · 0 评论 -
深度学习- 用Torch实现MNIST手写数字识别
本节代码地址:https://github.com/vic-w/torch-practice/tree/master/mnistMNIST是手写数字识别的数据库。在深度学习流行的今天,MNIST数据库已经被大家玩坏了。但是用它来学习卷积神经网络是再好不过的了。这一次,我们就用Torch来实现MNIST数据库的识别。这一次的代码用到了mnist库,如果之前没有安装,可以在命令转载 2016-06-12 10:05:11 · 2288 阅读 · 0 评论 -
Caffe 深度学习框架及AlexNet结构
Caffe是一个清晰而高效的深度学习框架,本文详细介绍了caffe的优势、架构,网络定义、各层定义,Caffe的安装与配置,解读了Caffe实现的图像分类模型AlexNet,并演示了CIFAR-10在caffe上进行训练与学习。Caffe是一个清晰而高效的深度学习框架,其作者是博士毕业于UC Berkeley的贾扬清,目前在Google工作。 Caffe是纯粹的C++/CUDA架构,支转载 2016-06-12 09:58:59 · 7991 阅读 · 1 评论 -
学习笔记:Caffe上LeNet模型理解
学习笔记:Caffe上LeNet模型理解Caffe中用的模型结构是著名的手写体识别模型LeNet-5(http://yann.lecun.com/exdb/lenet/a35.html)。当年美国大多数银行就是用它来识别支票上面的手写数字的。能够达到这种商用的地步,它的准确性可想而知,唯一的区别是把其中的sigmoid激活函数换成了ReLU。为什么换成ReLU,上一篇blog中找到了一转载 2016-06-12 09:44:28 · 1696 阅读 · 0 评论 -
深度卷积网络CNN与图像语义分割
出处: http://xiahouzuoxin.github.io/notes/html/深度卷积网络CNN与图像语义分割.html级别1:DL快速上手级别2:从Caffe着手实践级别3:读paper,网络Train起来级别4:Demo跑起来读一些源码玩玩熟悉Caffe接口,写Demo这是硬功夫分析各层Layer输出特征级别5:何不自己搭个CNN玩玩Train转载 2016-04-29 10:13:14 · 938 阅读 · 0 评论 -
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?以及他们的主要用途是什么?只知道CNN是局部感受和参数共享,比较适合用于图像这方面。刚入门的小白真心求助1 条评论 分享按投票排转载 2016-05-13 16:54:32 · 1605 阅读 · 0 评论 -
卷积神经网络
技术向:一文读懂卷积神经网络 雪姬 2015-03-06 4:53:55 机器学习 评论(28)自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自转载 2016-05-13 17:02:25 · 789 阅读 · 0 评论 -
循环神经网络(RNN, Recurrent Neural Networks)介绍
转自http://blog.csdn.net/heyongluoyao8/article/details/48636251转载 2016-05-13 17:12:37 · 1521 阅读 · 0 评论 -
Deep Learning(深度学习)之LeNet-5卷积参数个人理解
Deep Learning(深度学习)学习笔记整理系列之LeNet-5卷积参数个人理解Deep Learning(深度学习)学习笔记整理系列的地址是http://blog.csdn.net/zouxy09/article/details/8781543,里面举了一个卷积例子用来说明参数.一个典型的例子说明 一种典型的用来识别数字的卷积网络是L转载 2016-06-12 08:59:23 · 1771 阅读 · 0 评论 -
Torch7深度学习教程
原文 http://blog.csdn.net/zackzhaoyang/article/details/51417705https://github.com/soumith/cvpr2015/blob/master/Deep Learning with Torch.ipynb目录(?)[+]本文简单介绍了torch做深度学习模型的简单用法,并给出了CIFAR-10的分类例转载 2016-06-22 16:36:56 · 3404 阅读 · 2 评论 -
监督学习——线性回归(二)
上回博客中,我们介绍了LMS算法,它通过梯度下降来最小化J(θ)。接下来介绍第二种方法:标准方程(The normal equations),它不需要借助重复算法而直接求出最小化J(θ)时参数的θ值。在该方法中,我们直接令J(θ)对θj 求偏导得到的导函数等于0。 首先我们来介绍一下线性代数相关的一些知识,它是后续我们过程的基础。 1)矩阵求导 假设f转载 2016-05-06 15:53:42 · 517 阅读 · 0 评论 -
监督学习——线性回归(一)
监督学习问题根据预测的输出值是连续的还是离散的,我们将其划分为回归(Regression)问题和分类(Classification)问题。即输出值是连续的则为回归问题,而输出值是在有限的离散值中取值,则为分类问题。接下来,我们先来了解回归问题。 上篇博客中,我们列举了居住地和房子价格的例子,为了让这个例子更加丰富有趣点,我们在数据集中加入另一个元素,即每个房子中有几个房间。如下图所示转载 2016-05-06 15:49:53 · 1207 阅读 · 0 评论 -
AlexNet 结构学习
在2012年的时候,Geoffrey和他学生Alex为了回应质疑者,在ImageNet的竞赛中出手了,刷新了imageclassification的记录,一举奠定了deep learning 在计算机视觉中的地位。后边的故事大家都知道了,deeplearning一统天下,所向披靡。在这次竞赛中Alex所用的结构被称为作为AlexNet。本部分首先介AlexNet的基本的architecture转载 2016-06-12 09:50:59 · 3913 阅读 · 1 评论