TensorFlow实战
TensorFlow 黄文坚 唐源著
qq_37172182
i++, ++i, c++, g++, x++
展开
-
TensorFlow实战 13 DenseNet神经网络(CVPR2017最佳论文)
论文地址:Densely Connected Convolutional Networks背景:ResNet网络从深度方面考虑,解决了网络深度增加梯度消失的问题,IInception网络从宽度方面考虑,通过BN正则化及卷积核拆分的方式获取更多非线性特征,DenseNet在思想上有借鉴二者,但却是全新的结构,网络结构并不复杂,却非常有效。DenseNe从feature特征入手,通过对feat...翻译 2019-03-29 21:39:02 · 1432 阅读 · 1 评论 -
TensorFlow实战 12 ResNet进阶(手势识别)
在上一篇文章TensorFlow实战 11 ResNet神经网络(ILSVRC-2015 champion)中简单介绍了ResNet神经网络模型及其重要特征,本次借助TensorFlow高级集成库Keras实现ResNet应用于手势识别。 参考博客:吴恩达 深度学习 编程作业(4-2)- Keras tutorial - the Happy House & ...翻译 2019-03-16 18:00:08 · 1804 阅读 · 4 评论 -
TensorFlow实战 11 ResNet神经网络(ILSVRC-2015 champion)
论文地址:Deep Residual Learning for Image Recognition背景: 1)Highway network:修改每一层的激活函数,此前的激活函数只对输入做非线性变换Y = H(x, W_x),Highway network允许保留一定比例的原始输入x,即 y = H(x, W_x)T(x, W_t) + x(1-T(x, W_T)),这样,前...翻译 2019-03-11 20:13:46 · 532 阅读 · 0 评论 -
TensorFlow实战 10 GoogleLeNet进阶(Python调用OpenCV库实现图像识别)
在上一篇TensorFlow实战 9 GoogleLeNet神经网络(2014 ILSVRC 1st in Error(Top-5))文章中简单介绍GoogleLeNet的特点及V1-v4系列重要特点,通过使用slim库构建inception v3版本的神经网络,分析了前向传播的时间花费,本次借助已训练好googleLeNet网络实现不同大小尺寸图片的识别。 文件列表:...转载 2019-03-10 12:10:23 · 728 阅读 · 0 评论 -
TensorFlow实战 9 GoogleLeNet神经网络(2014 ILSVRC 1st in Error(Top-5))
论文地址:Going Deeper with Convolutions GoogleLeNet最大的特点是控制了计算量和参数量的同时,获得了很好的分类效果--top-5错误率为6.67%。Inception V1控制算量和参数量的方法:1)模型层数更深,表达能力更强(V1 : 22层, VGG-19 :19层);2)使用1x1卷积核(全局平均池化层)替代全连接层。全连接层几乎占据...翻译 2019-03-09 17:38:24 · 611 阅读 · 0 评论 -
TensorFlow实战 8 VGGNet进阶(图像风格迁移)
背景:在上一篇TensorFlow实战 7 VGGNet神经网络中初步了解到VGGNet神经网络模型特点,本次通过使用已经训练好的imagenet-vgg-verydeep-19.mat实现对不同风格画面的迁移运用。 参考博客: 1)TensorFlow练手项目三:使用VGG19迁移学习实现图像风格迁移 2)深度学习实战(一)快速...翻译 2019-03-04 21:06:34 · 1776 阅读 · 5 评论 -
TensorFlow实战 7 VGGNet神经网络(ILSVRC-2014 classification 2nd and location 1st)
论文地址:VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITIONVGG网络模型:VGGNet重要特点: 1)探索了神经网络深度与其性能之间的关系,通过反复堆叠3X3卷积核和2X2最大池化层,成功构建16~19层深度的神经网络; 2)讨论了训练图片尺寸S与测试图片尺寸Q之间的关系,并...翻译 2019-03-02 21:44:04 · 337 阅读 · 0 评论 -
TensorFlow实战 6 AlexNet进阶(ImageNet识别)
在上一篇AlexNet原理中通过TensorFlow搭建简单的alexNet模型,此次将通过实验运用AlexNet实现目标检测识别参考博客TensorFlow学习 -- AlexNet实现&图像识别开源source:tf_alxenet文件结构说明: 1)bvlc_alexnet.npy:alexnet已经训练好文件 2)caffe_class...翻译 2019-03-02 13:20:49 · 647 阅读 · 0 评论 -
TensorFlow实战 5 AlexNet神经网络(ILSVRC-2012冠军)
论文地址:ImageNet Classification with Deep Convolutional Neural NetworksAlexNet网络模型:AlexNet神经网路核心: 1)成功使用LeRU作为CNN激活函数, 并验证其效果在较深的网络超过sigmod,成功解决sigmod在较深网络出现梯度弥散问题; 2)使用dropout随机杀死一定比例的神经...翻译 2019-03-01 21:26:21 · 395 阅读 · 0 评论 -
TensorFlow实战 4 进阶CNN -- CIFAR-10数据集训练与测试
背景:CIFAR-10数据集包含10个类别的RGB彩色图片。图片尺寸为32×32,这十个类别包括:飞机、汽车、鸟、猫、鹿、狗、蛙、马、船、卡车。一共有50000张训练图片和10000张测试图片。 与之前简单的LeNet相比,新的神经网络具有以下特点: 1)对weights采用了L2正则 2)对图像数据做了翻转、随机剪切等数据增强处理,制造新样本 3)...翻译 2019-02-27 23:36:28 · 1313 阅读 · 0 评论 -
TensorFlow 实战 3 LeNet5神经网络(LeNet-5 CNN)
LeNet-5模型是Yann LeCun教授于1998年在论文Gradient-based learning applied to document recognition中提出的,它是第一个成功应用于数字识别问题的卷积神经网络。LeNet-5模型一共有7层,下图展示了LeNet-5模型的架构: LeNet-5特点: 1)每个卷积层包含三个部分:卷积、池化...翻译 2019-02-26 11:11:25 · 276 阅读 · 0 评论 -
TensorFlow实战 2 多层感知机(Multi-Layer Precepton MLP)
机器学习的常见基本问题及解决办法: 1、过拟合:模型预测准确率在训练集上提高,但在测试集上反而下降。即模型泛化能力不强,只是记忆了当前数据特征,不具备推广能力; 【解决办法】通过使用dropout方法,随机丟除某一层或多层的输出节点,通过创建新的随机样本,增大样本数量,减少特征数量防止过拟合; 2、参数调试:神经网络通常不是凸优化问题,处处充满局部...翻译 2019-02-25 10:56:33 · 264 阅读 · 0 评论 -
TensorFlow实战 1 自编码器(Autoencoder)
自编码器(Autoencoder):使用无监督方法,通过自身高阶特征编码自己,是一种输入和输出“基本一致”的神经网络。自编码器使用少量稀疏的高阶特征重构输出,同时附加限制: 1)如果限制中间隐藏层节点数量,使得中间层节点数量小于输入\输出节点数量,则为降维过程;如果给中间层加L1正则,则可根据惩罚系数控制中间层节点稀疏程度,惩罚系数越大,特征组合越稀疏,特征数量越...翻译 2019-02-25 11:17:15 · 383 阅读 · 0 评论 -
《TensorFlow实例-- VGG》
文献来源: https://www.cs.toronto.edu/~frossard/post/vgg16/VGG卷积神经网络是牛津大学在2014年提出来的模型。当这个模型被提出时,由于它的简洁性和实用性,马上成为了当时最流行的卷积神经网络模型。它在图像分类和目标检测任务中都表现出非常好的结果。在2014年的ILSVRC比赛中,VGG 在Top-5中取得了92.3%的正确率。众所周知,VG...翻译 2018-10-07 19:43:43 · 761 阅读 · 0 评论 -
《TensorFlow实例一 MINIST手写字体识别》
Ubuntu python3 TensorFlow实例:使用RNN算法实现对MINST-data数字集识别,最终识别准确率达96.875%PS:小白一个,初级阶段,从调试到实现,step by step.由于没能及时保留原著作者文章来源,对此深表歉意!!!附录作者GitHub链接,以示尊重。aymericdamien/TensorFlow-Examples: TensorFlow ...翻译 2018-08-25 18:19:36 · 944 阅读 · 0 评论