Tensorflow
文章平均质量分 56
风极_陨
这个作者很懒,什么都没留下…
展开
-
TensorFlow-2.x-10-AlexNet的实现
AlexNet可以说是使得深度学习大火的一个网络模型,它构建了多层CNN,增大感受野,加入LRN等方法,使得网络拥有极高的特征提取能力,但受限于设备的元素,当时用了2块GPU来提升训练效率。相关结构及原理可参考一下这篇文章:深入理解AlexNet网络 本章使用tf-2.x来实现AlexNet,由于设备的原因,修改原创 2020-06-18 09:22:31 · 602 阅读 · 0 评论 -
TensorFlow-2.x-09-LeNet-5的实现
本章节我们进入卷积神经网络的实现,LeNet-5可以说是进入卷积神经网络的入门级别,包含卷积层块和全连接层块两个部分。 利用TF-2.x可以很方便的构建模型,主要构建模型的方法如下:def model(): net=tf.keras.Sequential() net.add(tf.keras.laye原创 2020-06-17 09:54:26 · 495 阅读 · 3 评论 -
TensorFlow-2.x-08-使用正则化方法解决过拟合问题(简洁实现)
上一章【TensorFlow-2.x-07-使用正则化方法解决过拟合问题(从0开始实现)】我是用公式实现了L2正则化,并应用到网络中,这一章我们简洁的构造一个模型,然后,应用L2方法来做权重衰减。实现方式与上一篇基本一样,下面放代码:import tensorflow as tfimport randomimport matplotlib.pyplot as plt# 1、定义数据(多维数据)n_t原创 2020-06-16 14:05:46 · 454 阅读 · 0 评论 -
TensorFlow-2.x-07-使用正则化方法解决过拟合问题(从0开始实现)
有关正则化方法我在MXNET深度学习框架-09-使用正则化方法解决过拟合问题(以从0开始的线性回归为例)上面已经讲过了并应用了,本章使用TF-2.x来实现它。具体代码跟之前的基本一致,下面直接放代码:import tensorflow as tfimport randomimport matplotlib.pyplot as plt# 1、定义数据(多维数据)n_train, n_test, num原创 2020-06-16 13:22:20 · 446 阅读 · 0 评论 -
TensorFlow-2.x-06-MLP的简洁实现
上一章用TF-2.x实现了MLP的从0开始。本章我使用TF-2.x中的高阶API来实现MLP(多层感知机),很简单,只需要3步即可。P.S:本章所使用的数据集依旧是fashionmnist数据集。1、数据集读取# 1、读取数据集(x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()x_train, x_test = x_train原创 2020-06-16 11:36:57 · 298 阅读 · 0 评论 -
TensorFlow-2.x-05-MLP的从0开始
本章主要利用多层感知机实现图像分类,具体将构造参数、模型结构、准确率等等。1、数据集读取及归一化(x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()x_train, x_test = tf.cast(x_train / 255.0,tf.float32), tf.cast(x_test / 255.0,tf.float3原创 2020-06-14 15:43:32 · 192 阅读 · 0 评论 -
TensorFlow-2.x-04-多分类逻辑回归的简洁实现
本文不做多余解释,主要是衔接上一章TensorFlow-2.x-03-从0开始的多分类逻辑回归内容,使用TF-2.x来快速实现多分类逻辑回归。1、获取/读取数据集,归一化数据(x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()print(x_train.shape,y_train.shape)2、定义及初始化模型def ne原创 2020-06-14 14:53:02 · 494 阅读 · 0 评论 -
TensorFlow-2.x-03-从0开始的多分类逻辑回归
本章节对应MXNET深度学习框架-05-从0开始的多分类逻辑回归。1、数据集下载及读取本文使用fashionmnist数据集,通过tensorflow可以进行下载和读取:from tensorflow.keras.datasets import fashion_mnist(x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()pri原创 2020-06-14 14:16:10 · 361 阅读 · 0 评论 -
TensorFlow-2.x-02-线性回归的简洁实现
这里我们实现的是接上一篇的从0开始的线性回归,TF-2.x中有比较简洁的实现方式。1、生成数据集num_inputs = 2num_examples = 1000true_w = [2, -3.4] #真实权重true_b = 4.2 # 真实偏置值features = tf.random.normal((num_examples, num_inputs),stddev =1)labels = tr原创 2020-06-13 12:53:31 · 427 阅读 · 0 评论 -
TensorFlow-2.x-01-从0开始的线性回归
之前我一直使用的是TensorFlow-1.X的版本,虽说静态图模式比较繁琐,但用习惯了之后还是觉得挺不错的,后来TensorFlow-2.X的版本推出了,听说采用了Keras的高阶API,而且默认使用eager模式,然后我也随便看了一下构建模型的代码,第一感觉是跟Pytorch、mxnet好像,如果学习过这两个DNN框架的朋友们去学TF-2.X的话应该来说比较容易,反正我也不知道到底好不好用,下面我就要像一个小原创 2020-06-13 12:22:45 · 385 阅读 · 2 评论 -
TensorFlow Object Detction 配置笔记
前期准备工具:1、protoc-3.4.0-win32(一定要下载3.4.0的,不然后面会报错);2、Object Detection1、首先下载protoc工具,下载地址为:https://github.com/protocolbuffers/protobuf/releases/tag/v3.4.02、下载Object Detection,网址为:https://github.com/te...原创 2019-05-26 20:29:35 · 300 阅读 · 0 评论 -
TensorFlow-深度学习-13-LSTM递归神经网络
提到LSTM,我们就应该想到RNN,LSTM是RNN的一种改进,是RNN的变种。比如前几篇文章中讲的Mnist数据集分类,都是一张图片一张图片的输入,然后进行分类,这仅仅是对于图像来说,那么,对于语音或一串文字来说怎么做?这个就需要网络具有记忆的功能,RNN和LSTM都有这种功能。如果需要对语音或文字进行处理,就需要把网络看成是一个连续的整体,我们可以对网络加上一个反馈回路,如下图等号左边的图:...原创 2019-04-07 15:47:09 · 519 阅读 · 0 评论 -
TensorFlow-深度学习-12-训练模型保存与使用
有这么一种情况,如果说我训练了一个数据集,效果还不错,但总不能每次都要经过一次训练在拿来用吧,一次训练能达到上万次,对于普通电脑来说根本不可能训练,所以我们要把它保存成一个模型文件(检查点),用到的时候直接拿来用就好了。保存模型文件很简单,只需要用下面2句话就行了: saver = tf.train.Saver() saver.save(sess,save_path="check...原创 2019-03-24 16:07:41 · 3578 阅读 · 6 评论 -
TensorFlow-深度学习-06-梯度下降求解简单的逻辑回归
首先谈谈softmax这个函数:Softmax 在机器学习和深度学习中有着非常广泛的应用。尤其在处理多分类(C > 2)问题,分类器最后的输出单元需要Softmax 函数进行数值处理。关于Softmax 函数的定义如下所示:...原创 2019-03-20 16:02:42 · 345 阅读 · 0 评论 -
TensorFlow-深度学习-09-激活与损失函数
一、激活函数1、常见激活函数:【1】图像:上图的这个函数很明显就能看出来很适合做二分类问题,1代表一类,0代表另一类,没什么好解释的。【2】图像:这个函数比较常见,从上图中可以看到,当样本数据被归纳到1和-1以外的区间时,函数梯度开始变得平缓,这时学习率不管怎么变化,准确率也不会有所提升,因为激活函数已经达到了一种饱和状态,所以,做数据预处理时,最好把数据归纳到(-1,1)之...原创 2019-03-20 20:15:25 · 255 阅读 · 0 评论 -
TensorFlow-深度学习-02-Feed与Fetch
Feed:feed_dict={x:[[1,2],[3,4]],y:[[5],[6]]}上面的feed_dict的作用是什么?在机器学习中,经常听别人说到要把数据给喂进去。怎么喂进去,这就要使用feed_dict={x:input_x,y:input_y}把数据喂进去,喂进去的数据可以是矩阵,可以是数组,也可以是常数。Fetch:x_result,y_result=sess.run([x...原创 2019-03-17 13:55:07 · 328 阅读 · 0 评论 -
TensorFlow-深度学习-07-基于逻辑回归预测二元分类
现在我这里有一份数据集,数据量很少,只有不到200行,里面有0和1的标签,很适合做二分类,数据集如下:LOW,AGE,LWT,RACE,SMOKE,PTL,HT,UI,BWT1,28,113,1,1,1,0,1,7091,29,130,0,0,0,0,1,10211,34,187,1,1,0,1,0,11351,25,105,1,0,1,1,0,13301,25,85,1,0,0,0,...原创 2019-03-20 21:17:39 · 1329 阅读 · 0 评论 -
TensorFlow-深度学习-03-梯度下降(反向传播--BP)
反向传播(BP)算法:稍微明白神经网络是怎么回事的朋友都知道,神经网络分为三大层,输入层(input)、隐藏层(hidden)、输出层(output)。BP反向传播算法也就是多了上图中的红色箭头而已。当我们预测的值与真实值之间的差异较大时,我们就把这种差异附加到输入层与隐藏层之间的权重W和偏执项b上,通过每次更新W和b,产生不同的预测值,当预测值与真实值非常接近时,我们就可以停止这种迭代更新。...原创 2019-03-18 14:51:04 · 500 阅读 · 0 评论 -
TensorFlow-深度学习-08-人工神经网络(ANN)-多层感知器(MLP)
本文与TensorFlow-深度学习-03-梯度下降(反向传播–BP)其实没有什么差别,主要差别在于使用了softmax函数进行梯度下降求解。实例:import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("mnist...原创 2019-03-21 20:34:19 · 664 阅读 · 0 评论 -
TensorFlow-深度学习-04-梯度下降求解线性回归
线性回归,说白了就是求一条线性方程,能够最大限度的把坐标图上的每个点包括到,或者让这些点能够更加接近这条直线,本节将使用梯度下降的方法求这条解线性方程。有数据集的朋友可以使用pandas读取数据,这里我就不读取数据集了,有关于数据集的读取参考:机器学习——Pandas库1、读取数据集因为我这里没有数据集读取,所以自定义了100组数据(x,y)。'''-----------------造数据...原创 2019-03-18 18:15:52 · 450 阅读 · 0 评论 -
TensorFlow-深度学习-05-计算图
什么是计算图?基于TensorFlow这个编程系统中的每一个计算都是计算图上的一个节点,而节点与节点之间的连线则代表计算之间的依赖关系。以一个最简化的计算图来说明:上图中,a,b代表一个节点,add也是一个节点,只是它参与了计算的工作。而这个简单的运算,我们需要在一个图中运行,而要想使用这张图,我们就要用到熟悉的sess.run()会话操作来运行。参考:https://www.jia...原创 2019-03-18 21:25:09 · 457 阅读 · 0 评论 -
TensorFlow-深度学习-10-DropOut与多层神经网络
对于简单的3层人工神经网络,常用的激活函数很容易达到饱和度,比如sigmod,因为它很容易达到一个饱和度,导致整个训练终止。我之前在三层人工神经网络上加了一层,变成4层,然后进行训练,但是发现,训练的结果并没有什么变化,这是因为4层人工神经网络可能已经存在了过拟合的现象。其实经过大量研究人员的研究发现,三层神经网络其实已经能够满足比较大的数据量的训练,再增加其实已经没有什么意义了。所以要增加隐藏...原创 2019-03-22 16:31:04 · 1068 阅读 · 0 评论 -
TensorFlow-深度学习-11-卷积神经网络(CNN)
我们在计算机中所看到的图像,在计算机中表示为一个个矩阵,一串串数字。在神经网络中,我们需要将这些数据在输入端reshape成一个1行n列的数组。通常我们使用的图片不会太小,否则特征点很容易丢失,可即便是一张28*28的图像(mnist手写数据集),在输入层也有784个神经元,更何况一个数据集少则几百张图片,多则上万张图片,这对于简单的神经网络来说压力很大,而且计算量复杂,运行速度慢,效率低下。而卷...原创 2019-03-24 15:50:31 · 388 阅读 · 0 评论 -
TensorFlow-深度学习-01-常量,变量,操作数与占位符
12121原创 2019-03-16 20:55:50 · 564 阅读 · 0 评论