神经网络
笨笨猪的学习之路
这个作者很懒,什么都没留下…
展开
-
卷积神经网络的一些经典网络(Lenet,AlexNet,VGG16,ResNet)
LeNet – 5网络网络结构为:输入图像是:32x32x1的灰度图像卷积核:5x5,stride=1得到Conv1:28x28x6池化层:2x2,stride=2(池化之后再经过激活函数sigmoid)得到Pool1:14x14x6卷积核:5x5,stride=1得到Conv2:10x10x16池化层Pool2:2x2,stride=2(池化之后再经过...转载 2019-02-28 14:06:09 · 1140 阅读 · 1 评论 -
浅谈对AlexNet的理解
注意:分析之前先介绍一下卷积之后图像的尺寸变化:先定义几个参数输入图片大小W×WFilter大小F×F步长Spadding的像素数P于是我们可以得出N = (W − F+ 2P)/S+1输出图片大小为N×NAlexNet的篇文章《ImageNet Classification with Deep Convolutional Neural Netwo...原创 2019-02-28 14:02:57 · 243 阅读 · 0 评论 -
VGG Net
一、简介 VGG Net由牛津大学的视觉几何组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发的的深度卷积神经网络,在ILSVRC 2014上取得了第二名的成绩,将 Top-5错误率降到7.3%。它主要的贡献是展示出网络的深度(depth)是算法优良性能的关键部分。目前使用比较多的网络结构主要有ResNet(152-1000层...转载 2019-02-28 14:24:19 · 291 阅读 · 0 评论 -
GoogleNet:inceptionV3模型
Rethinking the Inception Architecture for Computer Vision论文地址:https://arxiv.org/abs/1512.00567Abstract介绍了卷积网络在计算机视觉任务中state-of-the-art。分析现在现状,本文通过适当增加计算条件下,通过suitably factorized convolutions...转载 2019-02-28 14:25:59 · 313 阅读 · 0 评论 -
ResNet
1 简要概括ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。同时Re...转载 2019-02-28 14:35:13 · 560 阅读 · 0 评论 -
Tensorflow模型保存与读取
import tensorflow as tfimport numpy as npimport os#输入数据x_data = np.linspace(-1,1,300)[:, np.newaxis]noise = np.random.normal(0,0.05, x_data.shape)y_data = np.square(x_data)-0.5+noise#输入层wit...原创 2019-03-11 19:29:14 · 256 阅读 · 0 评论 -
TensorFlow官方文档TensorBoard: 图表可视化
TensorFlow 图表计算强大而又复杂,图表可视化在理解和调试时显得非常有帮助。 下面是一个运作时的可式化例子。为了显示自己的图表,需将 TensorBoard 指向此工作的日志目录并运行,点击图表顶部窗格的标签页,然后在左上角的菜单中选择合适的运行。想要深入学习关于如何运行 TensorBoard 以及如何保证所有必要信息被记录下来,请查看Summaries 和 TensorBoard....转载 2019-03-12 10:01:23 · 355 阅读 · 0 评论