Deep Learning
文章平均质量分 78
Joy_Shen
You are in the picture
展开
-
神经网络之LeNet网络结构(Python+TensorFlow)
使用Python+TensorFlow实现LeNet网络结构,增加对网络内容的理解。原创 2017-07-19 18:43:14 · 1063 阅读 · 0 评论 -
神经网络之VGGNet模型的实现(Python+TensorFlow)
用Python+TensorFlow实现经典的VGG16的网络模型,增加理解,留作笔记。原创 2017-07-19 19:08:08 · 4675 阅读 · 0 评论 -
神经网络之AlexNet模型的实现(Python+TensorFlow)
用Python+TensorFlow实现经典的AlexNet网络模型,增加理解,留作笔记。原创 2017-07-19 18:59:02 · 4154 阅读 · 0 评论 -
神经网络之多层感知机MLP的实现(Python+TensorFlow)
用 MLP 实现简单的MNIST数据集识别,使用Python+TensorFlow实现,增加理解,留作笔记。原创 2017-07-19 18:54:47 · 3851 阅读 · 0 评论 -
神经网络之Inception模型的实现(Python+TensorFlow)
用tensorflow+python实现经典神经网络 inception_v3,增加理解,留作笔记。原创 2017-08-12 09:54:38 · 6189 阅读 · 1 评论 -
神经网络之ResNet模型的实现(Python+TensorFlow)
各种层数的残差网络:34-layer的残差网络结构: ResNet 的核心结构——bottleneck残差模块:在通道数相同情况下,bottleneck残差模块要比朴素残差模块节省大量的参数,一个单元内的参数少了,就可以做出更深的结构。从上面两个图可以看到,bottleneck残差模块将两个3*3换成了1*1、3*3、1*1的形式,这就达到了减少参数的目的。和Incep...原创 2017-08-12 09:55:26 · 22129 阅读 · 12 评论 -
深度学习中的梯度下降优化算法笔记
梯度下降方法是目前最流行的神经网络优化方法,并且现在主流的深度学习框架(tensorflow,caffe,keras,MXNET等)都包含了若干种梯度下降迭代优化器。我们在搭建网络的时候,基本都是拿它们封装好的函数直接用。实际上这些算法在不同情况可能有很大的性能差异,弄清楚它们的原理差异,有助于我们分析。参考文章:梯度下降优化方法总结 梯度下降(gradient descent,GD)...原创 2017-09-20 20:44:01 · 1844 阅读 · 0 评论 -
卷积神经网络做图像风格迁移的项目代码笔记
算法来源 CVPR 2016 的文章 “Image Style Transfer Using Convolutional Neural Networks”。主要是利用一个已经在ImageNet 上训练好的卷积神经网络 VGG-19。有代码参考和理解笔记。原创 2017-10-18 20:55:37 · 5819 阅读 · 16 评论 -
Tensorflow运行出错之Check failed: e->src_output()问题
系统:centOS 7 环境:CUDA8.0 + cudnn5 + TensorFlow 1.0问题报错是这样的: F tensorflow/core/common_runtime/executor.cc:484] Check failed: e->src_output() < 32768 (56124 vs. 32768) 先说结果,经过一番原因查找,得...原创 2018-04-25 15:57:04 · 2043 阅读 · 1 评论