- 博客(17)
- 资源 (8)
- 收藏
- 关注
原创 学习《TensorFlow实战Google深度学习框架》(十一)迁移学习
6.5 卷积神经网络迁移学习6.5.1 迁移学习介绍下标给出了从2012年到2015年ILSVRC(Large Scale Visual Recognition Challenge)第一名模型的层数以及前五个答案的错误率随着模型层数以及复杂度的增加,模型在ImageNet上的错误率也随之降低。然而,训练复杂的卷积神经网络需要非常多的标注数据。ImageNet图像分类数据集中有120万标注图...
2019-03-29 14:15:58 933 7
原创 学习《TensorFlow实战Google深度学习框架》(九)LeNet-5模型
文章目录6.4 经典卷积网络模型6.4.4 LeNet-5模型LeNet-5模型的架构6.4 经典卷积网络模型6.4.4 LeNet-5模型LeNet-5模型是Yann LeCun教授于1998年在论文Gradient-based learning applied to document recognition中提出的,它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据集上,L...
2019-03-23 20:35:38 590
原创 TensorFlow的CNN中padding属性的含义
不知道是不是我以前理解就有问题,我一直以为所谓的全0填充就只是在外侧多加一行和一列0直到今天,我看到这段话# 声明第一层卷积层的变量并实现前向传播过程。这个过程通过使用不同命名空间来隔离不# 同层的变量,这可以让每一层中的变量命名只需要考虑在当前层的作用,而不需要担心重# 名的问题。和标准LeNet-5模型不大一样,这里定义的卷积层输入为28×28×1的原始MNIST# 图片像素。因为卷...
2019-03-23 16:47:41 1084
原创 学习《TensorFlow实战Google深度学习框架》(八) 卷积神经网络简介
文章目录第六章 图像识别与卷积神经网络第六章 图像识别与卷积神经网络
2019-03-20 21:03:48 797
原创 Python中list[::-1]的几种用法
s = "abcde"list的[]中有三个参数,用冒号分割list[param1:param2:param3]param1,相当于start_index,可以为空,默认是0param2,相当于end_index,可以为空,默认是list.sizeparam3,步长,默认为1。步长为-1时,返回倒序原序列举例说明param1 = -1,只有一个参数,作用是通过下标访问数据,-1...
2019-03-20 11:19:34 38261 12
原创 学习《TensorFlow实战Google深度学习框架》(七)TensorFlow最佳实践样例程序
文章目录5.5 TensorFlow最佳实践样例程序mnist_inference.pymnist_train.pymnist_eval.py输出结果5.5 TensorFlow最佳实践样例程序5.2.1节中的代码,可扩展性不好。5.3节中,计算前向传播的函数需要将所有变量都传入才能计算,当神经网络的结构变得更加复杂、参数更多时,程序可读性会变得非常差。而且会导致大量的荣誉代码,降低编程的小量...
2019-03-20 10:40:31 203
原创 学习《TensorFlow实战Google深度学习框架》(六)模型持久化
文章目录5.4 TensorFlow模型持久化5.4.1持久化代码实现5.4 TensorFlow模型持久化5.4.1持久化代码实现
2019-03-15 17:30:19 218
原创 学习《TensorFlow实战Google深度学习框架》(五)变量管理
文章目录5.2 神经网络模型训练及不同模型结果对比5.2.2 使用验证数据集判断模型效果5.2 神经网络模型训练及不同模型结果对比5.2.2 使用验证数据集判断模型效果...
2019-03-15 11:20:12 204
原创 学习《TensorFlow实战Google深度学习框架》(四)MNIST问题、模型效果对比
文章目录前言第五章 MNIST数字识别问题5.1 MNIST数据处理前言之前有尝试过不用框架,根据《python神经网络编程》中的NN类,对MNIST数据集进行识别,然后尝试从每次只训练一个数据变成每次训练一个batch,但是种种困难阻止了我,最后也没能实现,这里我要好好学一下。第五章 MNIST数字识别问题5.1 MNIST数据处理...
2019-03-14 15:28:10 529
原创 学习《TensorFlow实战Google深度学习框架》(三)神经网络优化方法
文章目录4.3 神经网络优化算法4.4 神经网络进一步优化4.4.1 学习率的设置4.4.2 过拟合问题4.3 神经网络优化算法反向传播算法(BP,back propagation)和梯度下降算法(gradient decent)调整神经网络中参数的取值。梯度下降算法主要用于优化单个参数的取值,而反向传播算法给出了一个高效的方式在所有参数上使用梯度下降算法从而使神经网络模型在训练数据上的损失...
2019-03-13 11:18:27 363
原创 Tomcat设置自动清理缓存
找到Tomcat的安装目录,修改bin文件夹下的startup.bat文件在startup.bat文件的头部加上批处理命令。rd/s/q E:\workspace\apache-tomcat-6.0.45\work\Catalina
2019-03-12 15:01:28 2918
原创 学习《TensorFlow实战Google深度学习框架》(二)深层神经网络及损失函数
文章目录第四章 深层神经网络4.1 深度学习与深层神经网络4.1.1 线性模型的局限性4.1.2 激活函数实现去线性化4.1.3 多层网络解决异或运算4.2 损失函数定义4.2.1 经典损失函数第四章 深层神经网络4.1 深度学习与深层神经网络维基百科对深度学习的精确定义为“一类通过多层非线性变换对高复杂性数据建模算法的合集”。因为深层神经网络是实现“多层非线性变换”最常用的一种方法,所以在...
2019-03-08 12:22:31 660
原创 蚁群算法(ACO)
前言今天导师开会,同门作报告,题目大概是XXX的多步预测…中间提到一句——“使用蚁群算法优化神经网络的初始权值和阈值”遂查资料了解该算法的实质与用法,或许写论文会用上吧。...
2019-03-07 11:12:54 8002 1
原创 学习《TensorFlow实战Google深度学习框架》(一)TensorFlow 基础入门
文章目录前言第3章 TensorFlow入门3.1 TensorFlow计算模型——计算图3.1.1 计算图的概念3.1.2 计算图的使用3.2 TensorFlow数据模型——张量3.2.1 张量的概念3.2.2 张量的使用3.3 TensorFlow运行模型——会话3.4 TensorFlow实现神经网络3.4.3 神经网络参数与TensorFlow变量前言原本我是想遇到难点,写一个简短的...
2019-03-05 17:46:14 344
转载 Kaggle比赛:从何着手?
转载自简书作者:马力_Panotech链接:https://www.jianshu.com/p/f648de991d51文章目录介绍Kaggle问题列表1.泰坦尼克:机器从灾难中学习2.Julia初步3.数字识别4.当词袋遇上爆米花袋5.脏文件去噪声6.旧金山犯罪分类7.出租车轨迹预测:时间/地点8.Facebook招聘——人还是机器人开始Kaggle之旅Case 1:我有编程背景,但是是机...
2019-03-05 14:58:21 463
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人