自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

zx_leaves的博客

个人笔记

  • 博客(7)
  • 收藏
  • 关注

原创 tensorflow使用笔记(四)

tensorflow学习笔记(四)模型的保存和重载模型的保存

2019-08-03 17:24:54 103

原创 tensorflow的使用笔记(三)tensorboard可视化

tensorflow的使用笔记(三)tensorflow使用笔记(一)Session的两种使用方式和tensorflow中的变量tensorflow使用笔记(二)简单神经网络模型的搭建tensorboard可视化代码:import tensorflow as tfimport numpy as npimport osos.environ['TF_CPP_MIN_LOG_LEVE...

2019-07-30 10:39:48 317

原创 tensorflow使用笔记(二)简单神经网络模型的搭建

tensorflow使用笔记(二)搭建一个简单的网络模型简单的搭建一个三层网络结构的模型:import tensorflow as tfimport numpy as npimport osos.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'# 定义一个网络层def add_layer(inputs, in_size, out_size, activa...

2019-07-27 08:40:56 382

原创 tensorflow使用笔记(一)Session的两种使用方式和tensorflow中的变量

tensorflow使用笔记(一)Sesson的两种使用方式假设我们有两个2*2的矩阵,然后我们把这两个矩阵相乘使用Sesson后手动关闭使用with ... as ...实现自动关闭import tensorflow as tfimport numpy as npimport osos.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'# 定义两...

2019-07-26 17:45:28 1018

转载 前向传播和反向传播

前向传播和反向传播前言前向传播就是神经网络的每一层经过权重乘以输入求和再加上偏置项,通过激活函数在得到输出,输出再做为下一层的输入,反复直至的到最后输出的过程。反向传播就是神经网络通过最终的输出计算每一层的权重对最终输出的影响(用偏导数衡量),再经过梯度下降原理,从当前权值减去学习率乘以偏导数,从而达到更新权值的过程。下面我通过一个例子来演示这两个过程。假设我有一个三层的神经网络:i...

2019-07-22 21:36:32 2311

转载 激活函数

激活函数所谓激活函数(Activation Function),就是在人工神经网络上运行的函数,负责将神经元的输入映射到输出。激活函数对于人工神经网络去学习、理解非常复杂和非线性的函数来说具有非常重要的作用。它们将非线性特性引入带到网络中,在神经元中,输入经过加权求和,还要被作用于一个函数,就是激活函数,激活函数将神经网络赋予非线性的特性。如果没有激活函数,每一层网络乘以权值然后输出就相当于输...

2019-07-19 16:22:17 587

转载 网络基础

损失函数1. 损失函数分类通常机器学习中每个算法都有一个目标函数,算法的求解过程就是对目标函数优化的过程。在分类后回归问题中,通常使用损失函数(代价函数)作为目标函数。损失函数是用来评价模型的预测值和真实值之间的差距,损失函数越小,模型越准确。损失函数分为经验损失函数和结构损失函数。经验损失函数是预测结果和真实结果之间的差距,结构损失函数是经验损失函数加上正则项。数学表示如下:θ∗=arg...

2019-07-19 09:01:43 141

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除