tensforflow笔记学习记录
文章平均质量分 89
冯小胖的学习笔记
这个作者很懒,什么都没留下…
展开
-
《tensorflow笔记》学习记录第六节
6.1断点续训通过在反向传播的with结构中加入ckpt的操作,实现断点续训。从而保证神经网络的训练结果不会因为突然停止训练而丢失。当再次运行程序时,程序会自动找到断点,在断点处继续训练。# 本部分代码截取与第五节中的mnist_backward.py# 新加入的代码在第五节的mnist_test.py 中出现过saver = tf.train.Saver() with tf.Session() as sess: init_op = tf.global_variables_initi原创 2021-08-19 09:43:20 · 226 阅读 · 0 评论 -
《tensorflow笔记》学习记录第五节
5.1 MNIST数据集MNIST数据集:提供6w张28*28像素点的0~9手写数字图片和标签,用于训练。 提供1w张28*28像素点的0~9手写数字图片和标签,用于测试。 黑底白字,黑底用0表示,白字用0~1之间浮点数表示,越接近1 颜色越白。每张图片的784个像素点(28*28)组成长度为784的一维数组,作为输入特征。eg: [0., 0. , ....... ...原创 2021-08-15 19:09:54 · 226 阅读 · 0 评论 -
《tensorflow笔记》学习记录第四节
a激活函数的意义:有效避免仅使用的纯线性组合,提高了模型的表达力,使模型有更好区分度。NN复杂度: 多用NN层数和NN参数的个数表示层数 = 隐藏层的层数 + 1一个输出层总参数 = 总w +总b神经网络优化(从损失函数、学习率、滑动平均、正则化出发)损失函数(loss): 预测值(y)和已知答案(y_)的差距NN优化目标:loss减少方法:mse(mean squared error),自定义,ce(cross entropy,交叉熵)均方误差mse: MSE...原创 2021-08-07 09:31:58 · 493 阅读 · 0 评论 -
《tensorflow笔记》学习记录第三节
3.1张量、计算图、会话定义:基于tensorflow的NN:用张量表示数据,用结算图搭建神经网络,用会话执行计算图,优化线上 的权重(参数),得到模型张量(tensor) : 多维数组(列表)阶 :张量的维度张量可以表示 0阶到n阶数组(列表)维数 阶 名字 例子 0-D 0 标量 scalar ...原创 2021-07-30 19:19:36 · 112 阅读 · 0 评论 -
《tensorflow 笔记》学习记录第二节
2.1 Linux指令、hello world桌面点击右键,选择open terminal 打开终端(快捷键为 ctrl+ alt + t )pwd :打印当前在哪个目录ls :列出当前路径下的文件和目录mkdir + 目录名 :新建目录cd + 目录名 :进到指定目录python : 运行python 解释器print "Hello world!"运算符:+ - * / %运算顺序:先乘除 在加减 括号最优先变量,就是一个标签,由非数字开头的字母、...原创 2021-07-29 11:57:12 · 127 阅读 · 0 评论