深度学习Deeplearning4j
文章平均质量分 92
wild_jeek
这个作者很懒,什么都没留下…
展开
-
深度学习Deeplearning4j eclipse 开发环境搭建教程
深度学习Deeplearning4j eclipse 开发环境搭建eclipse设置deeplearning4j开发环境:手动添加jar包https://deeplearning4j.org/cn/eclipse eclipse maven设置deeplearning4j开发环境https://depiesml.wordpress.com/2015/08/26/dl4j-原创 2017-05-05 16:02:22 · 8323 阅读 · 0 评论 -
深度学习Deeplearning4j入门 实战(1):Deeplearning4j 手写体数字识别
转载:http://blog.csdn.net/wangongxi/article/details/54576594最近这几年,深度学习很火,包括自己在内的很多对机器学习还是一知半解的小白也开始用深度学习做些应用。由于小白的等级不高,算法自己写不出来,所以就用了开源库。Deep Learning的开源库有多,如果以语言来划分的话,就有Python系列的tensowflow,theano转载 2017-05-08 13:55:31 · 12325 阅读 · 0 评论 -
深度学习Deeplearning4j 入门实战(3):简介Nd4j中JavaCPP技术的应用
Deeplearning4j中张量的计算是由一个叫Nd4j的库来完成的。它类似于Python中的numpy,对高维向量的计算有比较好的支持。并且,为了提高运算的性能,很多计算任务是通过调用C++来完成的。具体来说,底层C++运行张量计算可以选择的backend有:BLAS,OpenBLAS, Intel MKL等,上层Java逻辑是通过JavaCPP技术来调用这些库。JavaCPP是也是一个开转载 2017-05-08 13:59:41 · 1831 阅读 · 0 评论 -
深度学习Deeplearning4j 入门实战(2):Deeplearning4j 手写体数字识别Spark实现
在前两天的博客中,我们用Deeplearning4j做了Mnist数据集的分类。算是第一个深度学习的应用。像Mnist数据集这样图片尺寸不大,而且是黑白的开源图片集在本地完成训练是可以的,毕竟我们用了Lenet这样相对简单的网络结构,而且本地的机器配置也有8G左右的内存。但实际生产中,图片的数量要多得多,尺寸也大得多,用的网络也会是AlexNet、GoogLenet这样更多层数的网络,所以往往我们转载 2017-05-08 13:58:27 · 2628 阅读 · 0 评论 -
深度学习Deeplearning4j 入门实战(4):Deep AutoEncoder进行Mnist压缩的Spark实现
图像压缩,在图像的检索、图像传输等领域都有着广泛的应用。事实上,图像的压缩,我觉得也可以算是一种图像特征的提取方法。如果从这个角度来看的话,那么在理论上利用这些压缩后的数据去做图像的分类,图像的检索也是可以的。图像压缩的算法有很多种,这里面只说基于神经网络结构进行的图像压缩。但即使把范围限定在神经网络这个领域,其实还是有很多网络结构进行选择。比如:1.传统的DNN,也就是加深全连接结构网络的隐转载 2017-05-08 14:01:35 · 2400 阅读 · 0 评论 -
深度学习Deeplearning4j 入门实战(5):基于多层感知机的Mnist压缩以及在Spark实现
在上一篇博客中,我们用基于RBM的的Deep AutoEncoder对Mnist数据集进行压缩,应该说取得了不错的效果。这里,我们将神经网络这块替换成传统的全连接的前馈神经网络对Mnist数据集进行压缩,看看两者的效果有什么异同。整个代码依然是利用Deeplearning4j进行实现,并且为了方便以后的扩展,我们将其与Spark平台结合。下面,就具体来说一下模型的结构、训练过程以及最终的压缩效果。原创 2017-05-08 14:02:27 · 1851 阅读 · 0 评论 -
深度学习Deeplearning4j 入门实战(6):基于LSTM的文本情感识别及其Spark实现
在做机器学习的各种应用中,文本分类是比较典型的一种。比如,微博的分类,电商中商品评价的好坏分类,新闻的分类等等。同时,文本作为一种重要的特征,也在CTR预估,推荐等应用中起着作用。就文本分类这个应用而言,通常的做法是基于词袋模型和词向量模型来进行。基于词袋(Bag of Words)的模型的话,一般走一步TF-IDF再结合朴素贝叶斯就可以做个模型了,当然如果词很多,存在高维的问题,就用SVD/转载 2017-05-08 14:04:42 · 7718 阅读 · 2 评论