![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
chen_holy
“你要是愿意, 我就永远爱你”——王小波《爱你就像爱生命》
展开
-
笔记 - tensorflow小案例:线性回归
最小二乘公式:"""tensorflow 实现线性回归案例"""import tensorflow as tfimport numpy as npfrom sklearn.datasets import fetch_california_housing# 装载数据housing = fetch_california_housing(data_home='C:/Users/Mc...原创 2019-05-04 09:37:38 · 153 阅读 · 0 评论 -
笔记 - tensorflow笔记:tensorboard
TensorFlow-6-TensorBoard 可视化学习tensorflow笔记(三)之 tensorboard的使用Lenet-5 MNIST Tensorboard 参数可视化 直方图 tf.Summary.histogram,tf.Summary.scalar,tf.Summary.image...原创 2019-05-25 11:06:19 · 145 阅读 · 0 评论 -
笔记 - tensorflow用法:placehodler如何传递到函数内部
好像只要声明了placehodler,就可以直接在函数里使用了不需要像传参数一样传递~import tensorflow as tfimport numpy as npX = tf.placeholder(dtype=tf.int32, shape=(2,3))def hello_world(): with tf.Session() as sess: prin...原创 2019-05-13 11:27:43 · 153 阅读 · 0 评论 -
笔记 - tensorflow用法:concat
需求:把所有1拼接在一起,2,3同理import tensorflow as tfx = tf.constant([[[[1,1,1]]], [[[2,2,2]]], [[[3,3,3]]]])y = tf.constant([[[[1,1,1]]], [[[2,2,2]]], [[[3,3,3]]]])a = [x, y]with tf.Session() as sess: ...原创 2019-05-13 16:53:06 · 126 阅读 · 0 评论 -
笔记 - tensorflow:sess.run机制
import tensorflow as tfdef read_data(): print("read data ...") return tf.constant(value=[1.0, 2.0, 3.0], dtype=tf.float32)X = read_data()X_train = tf.placeholder(dtype=tf.float32)with tf...原创 2019-06-10 14:25:15 · 776 阅读 · 0 评论 -
笔记 - 数据读取:TFRecords 内部多线程读取文件 (一)
资料:Tensorflow高效读取数据tensorflow的数据输入TensorFlow和Keras解决大数据量内存溢出问题tensorflow的数据输入 - 屌都不会TensorFlow高效读取数据的方法Tensorflow TFRecords及多线程训练介绍 ——详细Google Protocol Buffer 的使用和原理《21个项目玩转深度学习:基于TensorFlow的实...原创 2019-06-20 10:02:52 · 560 阅读 · 0 评论 -
笔记 - 数据读取:TFRecords 内部多线程读取文件 (二)
对整个流程梳理具体分析在上篇笔记 - 数据读取:TFRecords 内部多线程读取文件 (一)正文...filename_queue = tf.train.string_input_producer(filenames)reader = tf.FixedLengthRecordReader(record_bytes=3073)key, value = reader.read...原创 2019-06-20 12:21:47 · 203 阅读 · 0 评论 -
笔记 - 模型训练:正则Loss
前置add_to_collectionimport tensorflow as tftf.add_to_collection("reg_losses", 1.0)tf.add_to_collection("reg_losses", 1.0)loss = tf.get_collection("reg_losses")with tf.Session() as sess: pr...原创 2019-06-11 14:55:58 · 1064 阅读 · 0 评论 -
笔记 - 卷积网络:卷积输出张量shape计算
前置:影响shape形状的因素:1.卷积核大小2.stride步长3.padding模式公式:K – 卷积核数量F – 卷积核大小S – 步长P – 外围填充的层数运用显然valid模式下,直接卷,不够就丢弃我推导的valid模式下的计算方式(以 W 举例):W2 = (W1 - F)/S + 1SAME模式如何确定P利用公式1计算...原创 2019-06-11 16:13:07 · 4426 阅读 · 0 评论 -
笔记 - tensorflow用法:argmax 与 axis
axisaxis = 0 不仅可以表示按行操作eg: 相加合并成一行import tensorflow as tfx = tf.constant([[1,2,3], [1,2,3]])with tf.Session() as sess:print(tf.reduce_sum(x, axis=0).eval())# [2 4 6]axis = 0 还可以表示竖直方向impor...原创 2019-05-11 22:31:23 · 151 阅读 · 0 评论 -
笔记 - tensorflow用法:对独热编码分类结果进行评估
语法知识argmax – 返回指定维度上最大值的索引equal – 比较给定的两个值是否一致,支持广播cast – 把布尔值转换成0 1reduce_mean --求加和平均…import tensorflow as tf"""给出样本集的预测分类与实际分类(独热编码)评估准确率"""y = tf.constant([[0, 0, 1], [1, 0, 0]]...原创 2019-05-11 22:46:49 · 1178 阅读 · 0 评论 -
笔记 - 损失函数:交叉熵
import tensorflow as tf"""给出n个样本的预测值与真实值进行计算交叉熵(label已进行热编码)即两个矩阵交叉熵公式倒背如流"""y = tf.constant([[0, 0, 1], [1, 0, 0]], dtype=tf.float32)y_pred = tf.random_uniform(shape=(2, 3), minval=0, maxval...原创 2019-05-11 07:49:08 · 382 阅读 · 0 评论 -
笔记 - tensorflow小案例:线性回归(小批量随机梯度下降+优化器的使用)
"""线性回归 小批量梯度下降sklearn数据集标准归一化划分训练数据集与测试数据集tensorflownumpy"""import tensorflow as tfimport numpy as npfrom sklearn.preprocessing import StandardScalerfrom sklearn.datasets import fetch_ca...原创 2019-05-08 19:02:46 · 968 阅读 · 0 评论 -
笔记 - tensorflow小案例:线性回归(批量梯度下降策略)
import tensorflow as tfimport numpy as npfrom sklearn.datasets import fetch_california_housingfrom sklearn.preprocessing import StandardScaler# TODO tensorflow 线性回归问题求解 批量梯度下降策略"""思路:导包导数据集...原创 2019-05-06 12:35:25 · 530 阅读 · 0 评论 -
笔记 - tensorflow小案例:Softmax多分类(mnist手写体数据集识别)
通用步骤准备参数定义损失函数定义优化器正式训练"""tf的mnist(手写数字)数据集tf.nn下实现的softmax算法定义输入数据定义参数编写交叉熵损失参数梯度下降优化器处理统计预测的准确率正式训练"""import tensorflow as tffrom tensorflow.examples.tutorials.mnist import in...原创 2019-05-08 21:08:04 · 395 阅读 · 0 评论 -
笔记 - tensorflow语法:reduce_sum
注:不指定keep_dims的reduce_sum,dim(数组维度)最终会减1原创 2019-05-10 16:51:13 · 123 阅读 · 0 评论 -
Tensorflow官方文档 - W3CSchool
TensorFlow官方文档转载 2019-05-10 11:39:42 · 402 阅读 · 0 评论 -
笔记 - tensorflow api用法:随机模块
import tensorflow as tf# 均匀分布r1 = tf.random_uniform([1, 2], -1, 1) # -1,1 之间# 正态分布r2 = tf.random_normal([1, 2], mean=0.0, stddev=1.0)with tf.Session() as sess: print(r1.eval()) print(...原创 2019-05-20 13:12:50 · 110 阅读 · 0 评论 -
笔记 - tensorflow用法:二维张量与一维张量相加
import tensorflow as tfX = tf.constant([[1, 1], [1, 1]])b = tf.constant([1, 2])with tf.Session() as sess: print(sess.run(X+b)) """ [[2 3] [2 3]] 默认一维数组中每个数只会与 二维数组 中的对应 列 进行广...原创 2019-05-10 22:16:03 · 3866 阅读 · 0 评论 -
笔记 - tensorflow用法:tf.nn.softmax的用法
思考y_pred = tf.nn.softmax(tf.matmul(x, W) + b) """softmax函数中输入是什么,输出是什么"""要理解输入输出是什么的先决条件:理解softmax的过程softmax函数本质是一种非线性变化############## 占坑,下次更新用图说话 ##################import tensorflow as...原创 2019-05-11 07:49:52 · 3657 阅读 · 0 评论 -
笔记 - tensorflow中 Variable 与 get_variable 的用法
莫烦 scope 命名方法我们为什么要对变量命名举个例子:在迁移学习中我们是通过变量名加载相应的值# restore variables# redefine the same shape and same type for your variablesW = tf.Variable(np.arange(6).reshape((2, 3)), dtype=tf.float32, n...原创 2019-08-07 12:52:20 · 550 阅读 · 0 评论