TF2
文章平均质量分 86
tensorflow2的学习资料
AndSonder
这个作者很懒,什么都没留下…
展开
-
Tensorflow2常用操作合集
Tensorflow2常用操作合集文章目录Tensorflow2常用操作合集Data set loading and preprocessingData set trainingSet up the Network1.Fully connected layer2.Convolution layer3.2D convolution layer (e.g. spatial convolution...原创 2020-04-02 21:45:51 · 849 阅读 · 0 评论 -
TF2 GAN篇之GAN原理及推导【附WGAN代码和数据集】
TF2 GAN篇之GAN原理及推导TF2 GAN篇之GAN原理及推导GAN的起源在生成对抗网络(Generative Adversarial Network,简称GAN)发明之前,变分自编码器被认为是理论完备,实现简单,使用神经网络训练起来很稳定,生成的图片逼近度也较高,但是人眼还是可以很轻易地分辨出真实图片与机器生成的图片。2014 年,Université de Montréal ...原创 2020-03-29 12:31:11 · 2117 阅读 · 4 评论 -
TF2 VAE原理及代码实现
TF2 VAE原理及代码实现VAE(Variational Autoencoder)相关文章导航TF2 自编码器原理TF2 VAE原理及代码实现损失函数KL散度相对熵(relative entropy),又称为KL散度(Kullback - Leibler divergence),信息散度,信息增益(information gain)。KL散度是两个概率分布P和Q差别的非对...原创 2020-03-25 15:25:11 · 1320 阅读 · 0 评论 -
TF2 自编码器原理
TF2之自编码器原理假设机器学习是一个蛋糕,强化学习是蛋糕上的樱桃,监督学习是外面的糖衣,无监督学习则是蛋糕本体。—Yann LeCun前言神经网络如何学习的算法,这类算法需要学习的是在给定样本????下的条件概率????(????|????)。在社交网络蓬勃发展的今天,获取海量的样本数据????,如照片、语音、文本等,是相对容易的,但困难的是获取这些数据所对应的标签信息,例如机器翻译,除了收集源语言的对话文本外,还...原创 2020-03-24 13:21:32 · 844 阅读 · 0 评论 -
TF2 RNN篇之GRU原理与实战
TF2 RNN篇之GRU原理RNN篇之序列的表示方式RNN篇之Embedding层RNN篇之SimpleRNN情感分析实战RNN篇之LSTM原理及实战RNN篇之GRU原理及实战LSTM 具有更长的记忆能力,在大部分序列任务上面都取得了比基础的RNN 模型更好的性能表现,更重要的是,LSTM 不容易出现梯度弥散现象。但是LSTM 结构相对较复杂,计算代价较高,模型参数量较大。因此...原创 2020-03-19 21:21:27 · 1066 阅读 · 0 评论 -
TF2 RNN篇之LSTM原理及实战
TF2 RNN篇之LSTM原理RNN篇之序列的表示方式RNN篇之Embedding层RNN篇之SimpleRNN情感分析实战RNN篇之LSTM原理及实战基础的 RNN 网络结构如下图所示,上一个时间戳的状态向量 ????−1与当前时间戳的输入????????经过线性变换后,通过激活函数????????????ℎ后得到新的状态向量 ????。相对于基础的RNN网络只有一个状态向量 ????,LSTM 新增了一个状态向量????????,...原创 2020-03-19 21:00:51 · 2176 阅读 · 1 评论 -
TF2 RNN篇之情感分析实战【三种方式解决】
TF2 RNN篇之情感分析实战【三种方式解决】RNN篇之序列的表示方式RNN篇之Embedding层RNN篇之情感分析实战RNN层在tensorflow2的框架下,SimpleRNN层可以用keras.SimpleRNN或keras.SimpleRNNCell来表示,keras.SimpleRNN是高级的封装类不需要了解rnn的原理便可以使用,keras.SimpleRNNCel...原创 2020-03-18 16:17:11 · 1246 阅读 · 0 评论 -
TF2 RNN篇之循环神经网络
TF2 RNN篇之循环神经网络RNN篇之序列的表示方式RNN篇之Embedding层现在我们来考虑如何处理序列信号,以文本序列为例,考虑一个句子:“I hate this boring movie”“I \ hate \ this \ boring \ movie”“I hate this boring&nb...原创 2020-03-17 19:46:22 · 1239 阅读 · 0 评论 -
TF2 RNN篇之Embedding层
TF2 RNN篇之Embedding层RNN篇之序列的表示方式RNN篇之Embedding层在神经网络中,单词的表示向量可以直接通过训练的方式得到,我们把单词的表示层叫作Embedding 层。Embedding 层负责把单词编码为某个词向量????,它接受的是采用数字编码的单词编号????,如2 表示“I”,3 表示“me”等,系统总单词数量记为????vocab,输出长度为????的向量????:v⃗...原创 2020-03-17 11:20:09 · 1959 阅读 · 1 评论 -
TF2 RNN篇之序列的表示方式
Tensorflow2.0 RNN篇之序列的表示方式RNN篇之序列的表示方式具有先后顺序的数据一般叫作序列(Sequence),比如随时间而变化的商品价格数据就是非常典型的序列,。考虑某件商品A 在1 月到6 月之间的价格变化趋势,我们记为一维向量:[????1, ????2, ????3, ????4, ????5, ????6] ,如果要表示????件商品在1 月到6 月之间的价格变化趋势,可以记为2 维张量:张量的形状是...原创 2020-03-17 11:05:12 · 848 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之模型搭建与训练
Tensorflow2.0之 YOLO篇模型搭建与训练YOLO篇之算法原理介绍YOLO篇之提取xml文件信息YOLO篇之图像信息预处理YOLO篇之YOLO1论文YOLO篇模型搭建与训练这一篇我们就要结束yolo2的代码了,代码和相关资料的下载链接在博客的最后面,文章只是模型搭建和训练的过程,代码里面涉及到的一些函数是上几篇博客中提到的,有兴趣可以去看看。模型搭建YOLO的训...原创 2020-03-14 22:33:53 · 2119 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之YOLO1论文
Tensorflow2.0 YOLO篇之YOLO1论文原理YOLO篇之算法原理介绍YOLO篇之提取xml文件信息YOLO篇之图像信息预处理YOLO篇之YOLO1论文想要彻底了解原创 2020-03-13 19:56:33 · 764 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之图像信息预处理
Tensorflow2.0 YOLO篇之提取图像信息预处理YOLO篇之算法原理介绍YOLO篇之提取xml文件信息YOLO篇之图像信息预处理在上一篇博文中,我们已经将图片的路径和boxex信息分别存储在imgs和boxes的变量当中,现在我们就把他们转化为YOLO网络可以用的形式,本文中还是使用过vscode支持的jupyter的分布执行。有一说一,这个功能是真的好用转化为张量类型...原创 2020-03-13 16:01:25 · 1930 阅读 · 5 评论 -
Tensorflow2.0 YOLO篇之提取xml文件信息
Tensorflow2.0 YOLO篇之提取xml文件信息YOLO篇之算法原理介绍YOLO篇之提取xml文件信息数据集介绍数据集下载地址:链接:https://pan.baidu.com/s/1ZP9H2ym3Vp4Sda1mNiv9Pw 提取码:5okb 复制这段内容后打开百度网盘手机App,操作更方便哦这次选择的数据集是甜菜(sugarbeet)和杂草(weed)的数...原创 2020-03-11 21:24:32 · 1650 阅读 · 0 评论 -
Tensorflow2.0 YOLO篇之算法原理介绍
Tensorflow2.0 YOLO篇之算法原理介绍YOLO篇链接YOLO篇之算法原理介绍YOLO篇是记录最近研究YOLO算法的一个过程,这一篇会从YOLO原理讲起,一直到自己搭建数据集,去搭建YOLO网络并最终完成的一个过程什么是目标检测?检测图片中目标所在的位置,以及图片所属的类别。在计算机视觉中我们处理的往往都是分类的任务,图片一般都是采集好的,图片中的信息都是比较单一的,...原创 2020-03-10 23:24:21 · 2592 阅读 · 2 评论 -
Tensorflow2.0之自定义数据集
Tensorflow2.0之自定义数据集Brief在学习Deep Learning的过程中我们难免会因为需求而要使用自定义的DS,本文就简要的介绍如何自定义DSPoKemon Dataset这次我们使用的是PoKemon Dataset ,在自定义数据集之后会训练一下参数效果数据集使用的是龙龙老师课上的数据集下面是百度网盘的链接:▪链接 : https://pan.baidu.co...原创 2020-03-06 14:57:35 · 4112 阅读 · 0 评论 -
Tensorflow2.0之深度残差网络resnet18实现
Tensorflow2.0之深度残差网络resnet18实战深度残差网络AlexNet、VGG、GoogLeNet 等网络模型的出现将神经网络的发展带入了几十层的阶段,研究人员发现网络的层数越深,越有可能获得更好的泛化能力。但是当模型加深以后,网络变得越来越难训练,这主要是由于梯度弥散和梯度爆炸现象造成的。在较深层数的神经网络中,梯度信息由网络的末层逐层传向网络的首层时,传递的过程中会出现梯度...原创 2020-02-24 14:59:38 · 6042 阅读 · 2 评论 -
Tensorflow2.0之BatchNorm层
Tensorflow2.0之BatchNorm层简介:卷积神经网络的出现,网络参数量大大减低,使得几十层的深层网络成为可能。然而,在残差网络出现之前,网络的加深使得网络训练变得非常不稳定,甚至出现网络长时间不更新甚至不收敛的现象,同时网络对超参数比较敏感,超参数的微量扰动也会导致网络的训练轨迹完全改变。2015 年,Google 研究人员Sergey Ioffe 等提出了一种参数标准化(No...原创 2020-02-22 20:34:55 · 3342 阅读 · 1 评论 -
Tensorflow2.0之可视化界面(tensorboard)
Tensorflow2.0之可视化界面可视化:在网络训练的过程中,通过Web 端远程监控网络的训练进度,可视化网络的训练结果,对于提高开发效率和实现远程监控是非常重要的。TensorFlow 提供了一个专门的可视化工具,叫做TensorBoard,它通过TensorFlow 将监控数据写入到文件系统,并利用Web后端监控对应的文件目录,从而可以允许用户从远程查看网络的监控数据。TensorBo...原创 2020-02-17 21:05:29 · 3184 阅读 · 1 评论 -
Tensorflow2.0 之Could not create cudnn handle: CUDNN_STATUS_ALLOC_FAILED问题
Tensorflow2.0 之Could not create cudnn handle: CUDNN_STATUS_ALLOC_FAILED问题问题描述:在tensorflow2.0的学习过程中,遇到了Could not create cudnn handle: CUDNN_STATUS_ALLOC_FAILED,发现这个问题是我在调用kseras模块的卷积类前向传播时触发的,之前的全连接层...原创 2020-02-17 20:20:30 · 1041 阅读 · 2 评论 -
Tensorflow2.0之LeNet-5实战
Tensorflow2.0之LeNet-5实战LeNet-5 神经网络讲解1990 年代,Yann LeCun 等人提出了用于手写数字和机器打印字符图片识别的神经网络,被命名为LeNet-5 [4]。LeNet-5 的提出,使得卷积神经网络在当时能够成功被商用,广泛应用在邮政编码、支票号码识别等任务中。下图 10.30 是LeNet-5 的网络结构图,它接受32 × 32大小的数字、字符图片,...原创 2020-02-18 22:13:24 · 4102 阅读 · 6 评论 -
Tensorflow2.0之卷积层实现
文章目录Tensorflow2.0之卷积层实现自定义权值Keras高层接口卷积层类Tensorflow2.0之卷积层实现自定义权值在 TensorFlow 中,通过tf.nn.conv2d 函数可以方便地实现2D 卷积运算。tf.nn.conv2d基于输入????: ℎ ???? ???????????? 和卷积核????: ???? ???? ???????????? ???????????????? 进行卷积运算,得到输出???? ℎ′ ????′ ???????????????? ,其中????原创 2020-02-16 19:29:29 · 1613 阅读 · 0 评论 -
Tensorflo2.0 Keras高级接口之模型的保存和加载
Tensorflo2.0 Keras高级接口之模型的保存和加载模型训练完成后,需要将模型保存到文件系统上,从而方便后续的模型测试与部署工作。实际上,在训练时间隔性地保存模型状态也是非常好的习惯,这一点对于训练大规模的网络尤其重要。一般大规模的网络需要训练数天乃至数周的时长,一旦训练过程被中断或者发生宕机等意外,之前训练的进度将全部丢失。如果能够间断地保存模型状态到文件系统,即使发生宕机等意外,也...原创 2020-02-12 04:24:37 · 351 阅读 · 0 评论 -
Tensorflow2.0 Keras之模型装配
Tensorflow2.0 Keras之模型装配文章目录Tensorflow2.0 Keras之模型装配模型装配创建网络层模型装配模型训练模型测试模型装配在 Keras 中,有2 个比较特殊的类:keras.Model 和keras.layers.Layer 类。其中Layer类是网络层的母类,定义了网络层的一些常见功能,如添加权值、管理权值列表等。Model 类是网络的母类,除了具有Lay...原创 2020-02-12 04:12:41 · 407 阅读 · 0 评论 -
Tensorflow2.0 Keras高级接口之Sequential网络容器
Tensorflow2.0 Keras高级接口之网络容器对于常见的网络,需要手动调用每一层的类实例完成前向传播运算,当网络层数变得较深时,这一部分代码显得非常臃肿。可以通过Keras 提供的网络容器Sequential 将多个网络层封装成一个大网络模型,只需要调用网络模型的实例一次即可完成数据从第一层到最末层的顺序传播运算。例如,2 层的全连接层加上单独的激活函数层,可以通过Sequentia...原创 2020-02-12 02:41:19 · 1112 阅读 · 0 评论 -
Tensorflow2.0 Keras高层接口之Softmax网络层类
Tensorflow2.0Keras高层接口之Softmax网络层类tensorflow2.0 keras中的网络层接口简介对于常见的神经网络层,可以使用张量方式的底层接口函数来实现,这些接口函数一般在tf.nn 模块中。更常用地,对于常见的网络层,我们一般直接使用层方式来完成模型的搭建,在tf.keras.layers 命名空间(下文使用layers 指代tf.keras.layers)中提...原创 2020-02-12 02:26:29 · 1997 阅读 · 0 评论 -
Tensorflow2.0之实战汽车油耗预测
文章目录Tensorflow2.0之实战汽车油耗预测数据集Tensorflow2.0之实战汽车油耗预测数据集我们采用Auto MPG 数据集,它记录了各种汽车效能指标与气缸数、重量、马力等其它因子的真实数据,查看数据集的前5 项,如表 6.1 所示,其中每个字段的含义列在表6.2 中。除了产地的数字字段表示类别外,其他字段都是数值类型。对于产地地段,1 表示美国,2 表示欧洲,3 表示日本。...原创 2020-01-31 13:17:28 · 1799 阅读 · 0 评论 -
Tensorflow2.0之输出层设计
文章目录Tensorflow2.0之输出层设计1. 普通实数空间2.[0,1]区间[0,1]区间,和为1[-1,1]Tensorflow2.0之输出层设计我们来特别地讨论网络的最后一层的设计,它除了和所有的隐藏层一样,完维度变换、特征提取的功能,还作为输出层使用,需要根据具体的任务场景来定是否使用激活函数,以及使用什么类型的激活函数。1. 普通实数空间这一类问题比较普遍,像正弦函数曲线预测...原创 2020-01-30 16:03:37 · 830 阅读 · 0 评论 -
Tensorflow2.0之Minist手写数字识别
Tensorflow2.0之Minist手写数字识别注: 完整代码在最后Minist数据集介绍 Minist数据集是(Lecun, Bottou, Bengio, & Haffner, 1998)发布的,它包含了0~9 共10 种数字的手写图片,每种数字一共有7000 张图片,采集自不同书写风格的真实手写图片,一共70000 张图片。其中60000张图片作为训练集????train^{tr...原创 2020-01-29 17:13:36 · 3458 阅读 · 9 评论 -
Tensorflow2.0之经典数据集加载
文章目录Tensorflow2.0之经典数据集加载常用数据集随机打散批训练预处理预处理函数实现在preprocess 函数中,传入函数引用即可循环训练Tensorflow2.0之经典数据集加载常用数据集在 TensorFlow 中,keras.datasets 模块提供了常用经典数据集的自动下载、管理、加载与转换功能,并且提供了tf.data.Dataset 数据集对象,方便实现多线程(Mu...原创 2020-01-29 14:13:56 · 1606 阅读 · 0 评论 -
Tensorflow2.0之根据索引号收集数据
Tensorflow之根据索引号收集数据tf.gathertf.gather 可以实现根据索引号收集数据的目的。考虑班级成绩册的例子,共有4个班,每个班35个学生,8门学科,保存成绩册的张量shape为[4,35,8]。x = tf.random.uniform([4,35,8],maxval=100,dtype=tf.int32)现在需要收集1-2班的成绩册,可以给定班级索引号:[0,...原创 2020-01-28 15:55:08 · 631 阅读 · 0 评论 -
Tensorflow2.0之合并与分割
文章目录Tensorflow之合并与分割合并拼接堆叠分割Tensorflow之合并与分割合并合并是指将多个张量在某个维度上合并为一个张量。以某学校班级成绩册数据为例,设张量A 保存了某学校1-4 号班级的成绩册,每个班级35 个学生,共8 门科目,则张量A的shape 为:[4,35,8];同样的方式,张量B 保存了剩下的6 个班级的成绩册,shape 为[6,35,8]。通过合并2 个成绩...原创 2020-01-28 10:11:43 · 433 阅读 · 0 评论 -
Tensorflow2.0之Broadcasting
Tensorflow2.0之Broadcasting什么是Broadcasting:Broadcasting 也叫广播机制(自动扩展也许更合适),它是一种轻量级张量复制的手段,在逻辑上扩展张量数据的形状,但是只要在需要时才会执行实际存储复制操作。对于大部分场景,Broadcasting 机制都能通过优化手段避免实际复制数据而完成逻辑运算,从而相对于tf.tile 函数,减少了大量计算代价。...原创 2020-01-28 07:26:36 · 421 阅读 · 0 评论 -
Tensorflow2.0之4维张量
文章目录Tensorflow2.0之4维张量简介:格式定义对于4维张量的索引和切片问题Tensorflow2.0之4维张量简介:4 维张量在卷积神经网络中应用的非常广泛,它用于保存特征图(Feature maps)数据,格式定义格式一般定义为:[b,h,w,c][b,h,w,c][b,h,w,c]其中????表示输入的数量,h/w分布表示特征图的高宽,????表示特征图的通道数,部分深度学习...原创 2020-01-28 05:16:35 · 4042 阅读 · 0 评论 -
Tensorflow2.0四维张量的索引和切片问题
文章目录索引❑ 取第 1 张图片的数据:❑ 取第 1 张图片的第2 行:❑ 取第 1 张图片,第2 行,第3 列的像素:❑ 取第 3 张图片,第2 行,第1 列的像素,B 通道(第2 个通道)颜色强度值:❑ 取第 2 张图片,第10 行,第3 列:切片❑ 读取第 2,3 张图片:❑ 读取第 1-2 张图片的G/B 通道数据:❑ 读取最后2 张图片:❑ 读取 R/G 通道数据:索引在 Tenso...原创 2020-01-24 01:37:03 · 2591 阅读 · 0 评论 -
Tensorflow2.0中的不同行但同列的矩阵加法
Tensorflow中不同行但同列的矩阵加法在设置神经网络的时候,我们可能会看到这样的代码# z=wx,模拟获得激活函数的输入zz = tf.random.normal([4,2])b = tf.constant([1.,2.]) # 模拟偏置向量z = z + b # 累加偏置其中的z = z + b可能会让你感到非常的诧异什么一个4行2列的矩阵可以和一个1行2列的矩阵相加???其...原创 2020-01-24 00:32:00 · 620 阅读 · 0 评论 -
Tensorflow2.0之安装问题(含cuda 和cudnn安装及百度网盘资源)
Tensorflow2.0的安装问题tensorflow2.0的版本早已更新了,相比tensorflow1.x的版本tensorflow2.0显然更将的强大,但是它的安装过程是真的让人痛苦,下面和我一起来配置tensorflow2.0吧,windows版本我提供了cuda和cudnn的百度网盘linux的可以自行去官网下载安装过程TensorFlow 和其他的Python 库一样,使用Pyt...原创 2020-01-23 23:44:23 · 1612 阅读 · 2 评论