CNN
Xwei1226
大家可以通过如下网站联系我,沟通交流语音相关技术:https://www.meta-speech.com
展开
-
卷积神经网络学习研究(一)
结论:卷积层:1.增加网络的深度能够提高准确率;2.增加特征面数也能提高准确率;3.增加一个卷积层比增加一个全连接层更能获得一个更高的准确率;4.采用较小的卷积核代替较大的卷积核,同时增加网络深度来增加复杂度,试验表明网络深度比卷积核大小更为重要;5.试验表明,更小的卷积核且更深的CNN结构能够获得更优的性能;6.在增加网络深度同时,适当减少特征面数,同时卷积核大大小保持不变;7.试验表明,深度越...原创 2018-05-17 09:57:42 · 918 阅读 · 0 评论 -
卷积神经网络学习研究二
卷积神经网络从LeNet-5开始逐渐火热起来,下面简要的说明各大研究所高校关于卷积神经网络的研究: 1.最经典的LeNet-5是一个7层神经网络模型,但是依据后来论文里面的定义,POOLING层不算做事单独的一层,那就意味着Lenet-5是一个5层的神经网络,每个卷积操作之后都紧跟着一个池化操作; 2.沿袭着Lecun的卷积神经网络模型,Krizhevsky提出了新的卷积神经网络模型-Al...原创 2018-05-21 09:00:05 · 268 阅读 · 0 评论 -
卷积神经网络实现-基于MNIST数据集
直接上代码:#-*- coding:utf-8 -*-#author : zhangweiimport tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data" , one_hot=True)batch...原创 2018-05-21 10:59:42 · 596 阅读 · 0 评论 -
maxout实现-TensorFlow
1.原理maxout作为一种独特的激活函数,来源于paper Goodfellow, I. J., Warde-Farley, D., Mirza, M., Courville, A., & Bengio, Y. (2013). Maxout networks. arXiv preprint arXiv:1302.4389。这种激活函数提出来,是为了解决dropout方法优化不方便,和准确...转载 2018-05-21 15:37:30 · 2613 阅读 · 0 评论