自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

7Starx的代码小屋

记录一些学习笔记啦

  • 博客(14)
  • 收藏
  • 关注

原创 Tensorflow基础代码报错学习笔记14——Saver保存读取

原教程地址Saver保存读取一 保存1.1代码1.2 结果二 读取2.1 代码2.2 结果三 总结四 全部代码一 保存1.1代码import tensorflow as tf## Save to file# remember to define the same dtype and shape when restoreW =tf.Variable([[1, 2, 3], [3, 4, 5]], dtype=tf.float32, name='weights')b = tf.Variable(

2021-02-05 17:28:49 210

原创 Tensorflow基础代码报错学习笔记13——CNN卷积神经网络

原教程地址1:什么是CNN神经网络原教程地址2:CNN神经网络图解原教程地址3:CNN神经网络函数定义原教程地址4:CNN神经网络层搭建CNN卷积神经网络一 代码二 报错及解决2.1 报错2.2 分析2.3 问题解决三 结果对比四 总结原理部分用图片比较好理解,建议大家去看视频这部分因为我在上专业课的时候学习过所以就不在这里赘述了一 代码import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_

2021-02-04 12:16:49 441

原创 Tensorflow基础代码报错学习笔记12——overfitting过拟合

overfitting过拟合一 过拟合基础理论1.1 过拟合的解决方法二 代码2.1 原代码2.2 报错及解决2.3 结果三 Overfitting的克服3.1 修改代码3.2 dropout结果对比3.3 修改后的完整代码原教程地址一 过拟合基础理论过拟合简单来说就是不能表达除了训练数据以外的数据(教程中有很生动的图像表示,建议大家直接去看教程)1.1 过拟合的解决方法(1)增加数据量(2)运用正规化:L1,L2…regularization适用于大多数的机器学习,神经网络,方法大同小异,可

2021-02-03 15:58:18 303

原创 Tensorflow基础代码报错学习笔记11——classification分类学习

原教程地址原代码import tensorflow as tf# from tensorflow.examples.tutorials.mnist import input_data# number 1 to 10 data# 如果电脑中没有数据集,会自动下载mnist = input_data.read_data_sets('MNIST_data', one_hot=True)def add_layer(inputs, in_size, out_size, activation_func

2021-02-03 11:55:52 397

原创 Tensorflow基础代码报错学习笔记10——Tensorboard可视化工具2

原教程地址更新代码由于本次代码是在上一次教程的基础上改的,所以这里只把修改的部分代码贴出来。(1)首先定义了一个layer_name(2)在def add_layer函数中添加了一个n_layer参数(3)用**tf.histogram_summary()**来总结layer的名字def add_layer(inputs, in_size, out_size, n_layer, activation_function=None): # add one more layer and ret

2021-01-26 18:25:59 290

原创 Tensorflow基础代码报错学习笔记9——Tensorboard可视化工具1

原教程地址报错AttributeError: module ‘tensorflow._api.v2.compat.v1.train’ has no attribute 'SummaryWriter’AttributeError: module ‘tensorflow._api.v2.compat.v1.train’ has no attribute 'Summary’

2021-01-22 11:17:04 1576 9

原创 Tensorflow基础代码报错学习笔记8——Optimizer优化器

原教程地址最基础的优化方法Stochastic Gradient Descent(SGD)思路:将数据分为小批小批的,再进入NN中计算每次采用批量数据,虽然不能整体上反映数据的情况,不过在很大程度上加速了NN的训练过程,并且不会损失很多准确率其他优化方法SGD并不是最快的优化方法其他方法大部分是在神经网络训练参数的时候动手脚W += - Learning rate * dxdx为校正值Momentum这种方法可能会另学习过程曲折无比,就像一个喝醉的人,所以把它放在一个斜坡上(参考原

2021-01-21 17:10:21 1489

原创 Tensorflow基础代码报错学习笔记7——搭建神经网络(2)可视化显示

原教程地址这一节利用matplot库讲了可视化显示真实数据与预测数据代码根据上一篇的内容进行添加和修改,为了方便看,我先只把修改的部分代码贴出来:原代码及结果1.首先引入matplot库import matplotlib.pyplot as plt 2.然后显示真实数据###可视化显示真实数据###fig = plt.figure() #生成图片框#ax = fig.add_subplot(1,1,1) #连续画图用axis,1,1,1是编号ax.scatter(x_data,y_da

2021-01-20 17:41:05 530

原创 Tensorflow基础代码报错学习笔记6——搭建神经网络(1)

原教程地址这一章主要讲如何写添加层的函数与搭建神经网络先上原文码import tensorflow as tfimport numpy as nptf.compat.v1.disable_eager_execution()###添加层函数####activation_function=None相当于默认是线性函数#def add_layer(inputs,in_size,out_size,activation_function=None): Weights = tf.Variab

2021-01-19 21:03:02 440

原创 Tensorflow基础代码报错学习笔记5——activation function

原教程地址关于激励函数的概念up讲的很通俗易懂,我在这里做个小小的文字版笔记,感兴趣自己去看视频更加简洁明了(因为没有授权所以我也不想把视频内容截图搬运过来)激励函数一、简单概念激励函数用于解决代码学习过程中不能用线性方程概括的问题(用于掰弯线性函数y=Wx)y=AF(Wx)AF()包括:relu,sigmod,tanh二、注意事项(1)可以建立自己的激励函数但是要确保这些激励函数可以微分因为当误差反向传递的时候只有这些可微的激励函数才可以把误差的传递回去(2)当神经网络层数较少时,隐藏

2021-01-19 17:10:35 126

原创 Tensorflow基础代码报错学习笔记4——Placeholder

原视频教程先贴原版代码(以及我的注释)import tensorflow as tftf.compat.v1.disable_eager_execution()#一般只能处理float就默认写成float32就可以了##如果输入的input是两行两列可以先规定结构:#input1 = tf.placeholder(tf.float32,[2,2])#input1 = tf.placeholder(tf.float32)input2 = tf.placeholder(tf.float32)

2021-01-19 16:38:15 292

原创 Tensorflow基础代码报错学习笔记3——Variable变量

原教程地址之Variable变量先贴原代码import tensorflow as tf tf.compat.v1.disable_eager_execution()#这一句为了让run正常运行state = tf.Variable(0,name='counter')#print(state.name)one = tf.constant(1)new_value = tf.add(state,one)update = tf.assign(state,new_value)#定义变量后最重

2021-01-19 12:56:31 321

原创 Tensorflow基础代码报错学习笔记2——Session会话控制

原教程地址这一章Up主命名的Session 会话控制实际内容是矩阵计算先贴原教程代码import tensorflow as tf matrix1 = tf.constant([[3,3]])#一行两列的矩阵#matrix2 = tf.constant([[2],[2]])#二行二列的矩阵#product = tf.matmul(matrix1,matrix2) #matrix multipy np.dot(m1,m2)####method 1##sess = tf.compat.v1.

2021-01-19 12:17:16 203

原创 Tensorflow基础代码报错学习笔记1——简单的神经网络

@TOC没有授权转载,只是如果大家想学习的话可以去b站看原视频这个笔记是我跟着up主的教程打代码的时候遇到了一些问题(大部分是tensorflow版本问题)以及一些解决办法先看原教程代码(附部分up讲解的注释)*****import tensorflow as tfimport numpy as np#create data#x_data = np.random.rand(100).astype(np.float32)y_data = x_data * 0.1 + 0.3 ###c

2021-01-18 19:32:06 713 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除