tensorflow
「已注销」
这个作者很懒,什么都没留下…
展开
-
tensorflow2.0笔记
使用keras创建网络:获取数据集,需要转换为tf.data.Dataset类型,或者Numpy Array类型的数据;使用tf.keras.layers.Sequential([])来创建网络;使用network.build()输入input_shape来使得网络知道输入的数据长度,以便创建参量;使用network.compile()来设置网络的优化方法、损失函数的计算方法、评价指标等;使用network.fit()来对网络进行训练,输入数据集以及训练的epoch、验证集及其epoch。..原创 2020-10-22 18:21:06 · 181 阅读 · 0 评论 -
tensorflow2.0的手写数字识别
import tensorflow as tfimport tensorflow.keras as kerasimport tensorflow.keras.layers as layersfrom tensorflow.keras import Sequentialimport matplotlib.pyplot as pltimport pandas as pdfrom tensorflow.keras.utils import normalizefrom tensorflow.keras原创 2020-10-22 18:37:17 · 547 阅读 · 2 评论 -
tensorflow1.x笔记
定义变量:tf.Variable()#初始化可以使用tf.random等或者tf.zeros常用函数:numpy:np.random.rand() #通过这个函数可以生成一个或者一组从0-1均匀分布的随机样本值。随机样本的取值范围是[0, 1)。np.linspace(-0.5, 0.5, 200) #生成从-0.5到0.5均匀分布的200个数据点,包含首尾数据np.newaxis #所处的位置增加一维: x1 = np.array([1, 2, 3, 4, 5]) # the原创 2020-11-06 13:50:58 · 208 阅读 · 0 评论 -
tensorflow1.x神经网络小训练过程
总体过程:模型:设置模型输入:数据以及标签,采用占位符的形式;placeholder()创建执行过程,得到输出;损失:创建损失函数loss;优化: 创建优化器 :optimizer = tf.train…().minimize(loss)运行: 创建计算图:with tf.Session() as sess:初始化全局变量运行优化器:sess.run(optimizer)输出每轮的损失注意之处:1、运行模型,需要feed变量,要使feed_dict的变量与placeholder处的s.原创 2020-11-06 23:14:11 · 824 阅读 · 0 评论 -
tensorflow神经网络优化方法笔记
一、神经网络优化总结梯度下降梯度下降算法不一定达到全局最优,并且消耗时间,因为其是在全部数据集上的损失和。因此采用随机梯度下降算法:其不是在全部数据集上优化损失函数,而是在每一轮迭代中,随机优化某一条训练数据上的损失函数;存在问题:某一条数据上损失函数更小,不代表在全部数据上损失函数更小,可能无法达到局部最优。实际应用;采用这两个算法折中,每次计算一小部分训练数据的损失函数,成为一个batch。每次使用一个batch可以大大减小收敛所需要的迭代次数,同时可以使得收敛到的结果更加接近梯度下降的效果。原创 2020-12-10 17:40:57 · 131 阅读 · 0 评论