tensorflow学习
文章平均质量分 53
秘境之眼
业精于勤,荒于嬉;行成于思,毁于随。
展开
-
Tensorflow深度学习应用(进阶篇)-1
#coding=gbk'''逻辑回归: 逻辑回归需要将输出控制在[0,1]之间,可以使用函数将值映射在[0,1]之间 Sigmod函数, 逻辑回归一般采用对数损失函数;'''from pylab import mplmpl.rcParams['font.sans-serif'] = ['SimHei'] #设置显示绘图显示中文mpl.rcParams['ax...原创 2020-01-06 20:45:39 · 209 阅读 · 0 评论 -
Tensorflow深度学习应用(进阶篇)-回归(函数拟合训练)-可视化
#coding=gbk'''进阶篇: 多元回归: 建模问题: Y=x1xx1+x2xw2+x3xw3+...+xnxwn+b,矩阵简化表示Y=XW+b numpy库基础: 整型的一个数字, 不能取得其shape(维度),通过np.array()可以将其转换成一个标量(数组),可以取得shape; 一般问题: 需要对重要的特征以及次要...原创 2020-01-06 13:10:00 · 739 阅读 · 0 评论 -
Tensorflow深度学习应用(进阶篇)
#coding=gbk'''进阶篇 相关数据: 标签:要预测的事物 特征:用于描述数据的输入变量 样本:数据的特定实例 有标签的样本:{特征,标签} 无标的样本:{特征,...} 模型: 将样本映射到预测标签,有内部参数描述,参数通过学习而来。通过有标签的样本来确定所以权重w和偏差b的最优值。 损失: 是对糟糕...原创 2020-01-05 17:03:07 · 263 阅读 · 0 评论 -
Tensorflow深度学习应用(筑基篇)
筑基篇1.张量用于描述数据,可以理解为多维数组,包含张量的名字,阶数,形状数值类型.Tensor("Add:0", shape=(m,n,k), dtype=float32),表示节点名为Add,0代表第0个输出,shape表示为MxNxK维的数组,类型为float32.2.张量的类型tf.float32,tf.float64,tf.int8,tf.int16,tf.int32,tf....原创 2020-01-05 11:20:18 · 320 阅读 · 0 评论 -
tensorflow框架
基于Tensorflow的NN:用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上的权重(参数),得到模型。张量(tensor):多维数组(列表) 阶:张量的维数;维数 阶 名字 例子 0-D 0 标量 scalar s=1 2 31 1-D 1 向量 vector v=[1,2,3] 2-...原创 2019-03-27 10:02:46 · 160 阅读 · 0 评论 -
神经网络-反向传播
反向传播反向传播---->训练参数,在所有参数上使用梯度下降。使NN模型在训练数据上的损失函数最小。 损失函数(loss):预测值(y)与已知答案(y_)的差距。 均方误差MSE: , loss=tf.reduce_mean(tf.square(y_-y)) 4.反向传播训练方法:以减小loss值为优化目标 ...原创 2019-07-01 17:46:32 · 461 阅读 · 2 评论 -
神经网络-前向传播
前向传播神经网络搭建1.tensorflow库搭建神经网络参数:线上的权重W,用变量表示,随机给初值。 相关介绍 tf.truncated_normal():去掉过大偏离点的正太分布 tf.random_normal()正太分布 tf.random_uniform():平均分布 tf.zeros:全零数组,tf.zeros([3,2],int32) ...原创 2019-07-01 13:15:14 · 1125 阅读 · 0 评论 -
神经网络-损失函数:
神经网络中的损失函数:1.神经网络的复杂度:多用神经网络的层数和神经网络的参数的个数表示。2.层数=隐藏层的层数+1个输出层,总参数=总的权重w与总的偏置项b。3.自定义损失函数:通过每个需要预测的结果y与标准答案y_比较,计算其损失累计和,即loss(y_,y)=sum{f(y_,y)},其中y_是标准答案数据集的,y为预测答案计算出的。函数f定义如下 当y<y_...原创 2019-09-27 17:28:56 · 873 阅读 · 0 评论