![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
TensorFlow2.0
文章平均质量分 60
泤燃
人生苦短,及时行乐
展开
-
神经网络模型提升算法性能的方法
转自:https://machinelearningmastery.com/improve-deep-learning-performance/(英文原文) PS:找了好久,CSDN都分类为转载,但是都没写原文地址。 提升算法性能的方法 列表划分为四块: 从数据上提升性能从算法上提升性能从算法调优上提升性能从模型融合上提升性能上述四块的排序对应其对性能的提升能力的排序。 文中的想法主要针对...转载 2021-03-23 20:02:42 · 2071 阅读 · 0 评论 -
五种经典卷积神经网络
LeNetAlexNet本文使用六步法分别实现LeNet(1998)、AlexNet(2012)、VGGNet(2014)、InceptionNet(2014)、ResNet(2015)除了卷积网络的“开篇之作”LeNet 以外,AlexNet、VGGNet、InceptionNet 以及 ResNet 这四种经典网络全部是在当年的 ImageNet 竞赛中问世的,它们作为深度学习的经典代表,使得 ImageNet 数据集上的错误率逐年降低。LeNetLeNet 即 LeNet5,由 Yann.原创 2021-02-21 16:02:21 · 8311 阅读 · 3 评论 -
weights.txt文件解说
第一层网络用553的卷积核,一共6个。下面给出了6个卷积核中的所有参数w以下记录了6个卷积核各自的偏置项b,每个卷积核一个偏置b,6个卷积核共有6个偏置b这里记录了BN操作中的缩放因子γ,每个卷积核一个γ,6个卷积核共有6个缩放因子γ这里记录了BN操作中的6个偏移因子β,每个卷积核一个β,6个卷积核共有6个偏移因子β这里记录了第一层全连接网络,共1536行128列的线上权重w,这里记录了第一层全连接网络128个偏置b这里记录了第二层全连接网络,128行10列线上权重w以下记录了第原创 2021-02-19 19:11:31 · 750 阅读 · 1 评论 -
TensorFlow2学习十二之卷积神经网络
一、基本概念1. 全连接NN2. 卷积(Convolutional)3.感受野(Receptive Field)4. 全零填充(padding)二、tensorflow描述卷积层1. keras构建CNN中的卷积层2. 批标准化(Batch Normalization, BN)3. 池化层(Pooling)4. 舍弃(Dropout)5. 构建神经网络三、Cifar101.Cifar10数据集卷积神经网络:借助卷积核提取特征后,送入全连接网络。主要模块:一般包括卷积层、BN 层、激活函数、池化层以及.原创 2021-02-19 16:54:43 · 548 阅读 · 0 评论 -
TensorFlow2学习十一之绘制准确率acc和损失函数loss曲线
model.fit中将训练集loss、测试集loss、训练集准确率保存了下来history=model.fit(训练集数据, 训练集标签, batch_size=, epochs=, validation_split=用作测试数据的比例, validation_data=测试集, validation_freq=测试频率)history包含以下几个属性:训练集loss: loss测试集loss: val_loss训练集准确率: sparse_categorical_accurac.原创 2021-01-24 12:05:22 · 11441 阅读 · 1 评论 -
TensorFlow2学习十之参数提取
提取可训练参数model.trainable_variables 返回模型中可训练的参数设置print输出格式np.set_printoptions(threshold=超过多少省略显示) # 设置打印效果np.set_printoptions(threshold=np.inf) # np.inf表示无限大print(model.trainable_variables)file = open('./weights.txt', 'w')for v in model.trainable_v原创 2021-01-24 11:43:26 · 643 阅读 · 0 评论 -
TensorFlow2学习九之存取模型
断点续训可以存取模型读取模型读取模型可以直接使用TensorFlow的load_weights(路径文件名)函数checkpoint_save_path = "./checkpoint/mnist.ckpt"if os.path.exists(checkpoint_save_path + '.index'): model.load_weights(checkpoint_save_path)保存模型保存模型参数可以使用TensorFlow给出的回调函数tf.keras.callbacks原创 2021-01-24 10:55:15 · 255 阅读 · 0 评论 -
TensorFlow2学习八之数据增强
图像增强:对图像的简单形变。TensorFlow2图像增强函数tf.keras.preprocessing.image.ImageDataGenerator()image_gen_train = tf.keras.preprocessing.image.ImageDataGenerator( rescale = 所有数据将乘以该数值 rotation_range = 随机旋转角度数范围 width_shift_range = 随机宽度偏移量 height_shift_range = 随机高度偏移原创 2021-01-24 10:32:05 · 428 阅读 · 0 评论 -
TensorFlow2学习七之加载自制数据集
一、自制数据集数据集路径读入数据一、自制数据集数据集路径.\mnist_image_labelmnist_train_jpg_60000和mnist_test_jpg_10000存放训练集和测试集mnist_test_jpg_10000.txt和mnist_train_jpg_60000.txt存放训练集和测试集标签train_path = './mnist_image_label/mnist_train_jpg_60000/' # 训练集图片路径train_txt = './.原创 2021-01-23 16:57:26 · 985 阅读 · 0 评论 -
TensorFlow2学习六之构建神经网络
一、搭建神经网络模型tf.keras.models.Sequentialcompile()配置神经网络的训练方法优化器(Optimizer)损失函数(loss)评测指标(Metrics)fit()执行训练过程summary()打印出网络的结构和参数统计复现鸢尾花分类二、class搭建神经网络模型类模块搭建鸢尾花分类一、搭建神经网络模型第一步 导入相关模块第二步 准备测试集(x_train,y_train)和训练集(x_test,y_test)第三步 搭建网络结构model = tf.keras.m.原创 2021-01-23 15:16:37 · 323 阅读 · 0 评论 -
TensorFlow2学习五之神经网络优化过程
一、常用函数tf.where(条件语句,真返回A, 假返回B)np.random.RandomState.rand(n)np.vstack(数组1, 数组2)np.mgrid[]、x.ravel()、二、神经网络复杂度空间复杂度时间复杂度指数衰减学习率激活函数激活函数输出值的范围Sigmoid函数Tanh函数Relu函数Leaky Relu函数损失函数(loss)均方误差损失函数交叉熵损失函数自定义损失函数一、常用函数tf.where(条件语句,真返回A, 假返回B)条件语句真返回A,条件语句假返回.原创 2021-01-21 11:55:33 · 215 阅读 · 0 评论 -
TensorFlow2学习四之函数
构建神经网络准备数据:采集大量“特征、标签”数据搭建网络:搭建神经网络结构优化参数:训练网络获取最佳参数应用网络:将网络保存为模型,输入新数据分类或预测结果损失函数(loss function):预测值(y)与标准答案(y_)的差距。损失函数可以定量判断W、b的优劣,当损失函数输出最小时,参数W、b回出现最优值。...原创 2021-01-19 18:47:27 · 151 阅读 · 0 评论 -
两种方法解决AttributeError: module ‘tensorflow‘ has no attribute ‘placeholder‘
一import tensorflow.compat.v1 as tftf.disable_v2_behavior()替换import tensorflow as tf二如果后面还要继续用tf2版本,就可以只更改一句代码:data_in = tf.compat.v1.placeholder(tf.float32, [None, 100, 100, 3])原创 2021-01-12 17:06:29 · 1290 阅读 · 1 评论 -
论文学习一之Gradient-Based Learning Applied to Document Recognition
论文学习一之Gradient-Based Learning Applied to Document Recognition摘要——使用BP算法多层神经网络训练构成种个成功的基于梯度学习技术的最佳案例。提供一个合适的网络架构,基于梯度学习算法就能将其用于合成复杂的决策面以便将高维模式(例如手写字符)区分归类,并进行最小预处理。本文综述了各种方法对手写字符特征识别,并将其与标准手写数字识别任务进行...原创 2020-04-01 15:45:06 · 2284 阅读 · 0 评论 -
TensorFlow2.0学习三之线性回归
TensorFlow2.0学习笔记(三)线性回归Numpy下的线性回归TensorFlow 下的线性回归一个实际问题,某城市在 2013 年 - 2017 年的房价如下表所示:现在,我们希望通过对该数据进行线性回归,即使用线性模型 y = ax + b 来拟合上述数据,此处 a 和 b 是待求的参数。首先,定义数据,进行归一化操作import numpy as npX_raw = np...原创 2019-10-19 19:39:07 · 652 阅读 · 0 评论 -
TensorFlow2.0学习二之基础
TensorFlow学习(二)线性回归1.首先,导入TensorFlow1.首先,导入TensorFlowimport tensorflow as tfTensorFlow 使用 张量 (Tensor)作为数据的基本单位。TensorFlow 的张量在概念上等同于多维数组,我们可以使用它来描述数学中的标量(0 维数组)、向量(1 维数组)、矩阵(2 维数组)等各种量。# 定义一个随机数(...原创 2019-10-19 14:55:06 · 163 阅读 · 0 评论 -
TensorFlow2.0学习一之安装与配置
TensorFlow学习笔记(一)安装与配置1.查看环境 conda info --envs2.使用 Anaconda 自带的 conda 包管理器建立一个 Conda 虚拟环境,并进入该虚拟环境。3.使用 Python 包管理器 pip 安装 TensorFlow。4.第一个程序IDE设置1.查看环境 conda info --envs2.使用 Anaconda 自带的 conda 包管理...原创 2019-10-18 21:26:48 · 169 阅读 · 0 评论