![](https://img-blog.csdnimg.cn/20190918140012416.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 83
深度学习笔记
Harmony_Launch
这个作者很懒,什么都没留下…
展开
-
【深度学习笔记(十七)】之Tensorflow2中构造数据集对象,预处理数据以及获取使用数据集
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. 创建数据集对象(一)tf.data.Dataset的组成 tensorflow2中通过tf.data.Dataset类对数据集进行了封装。tf.data.Dataset由一系列的可迭代访问的元素组成,每个元素包含一个或多个张量。如图像数据集中,每个元素可以是形状为 长 x 宽 x 通道数 的图片张量,也可以是由图片张量和图片标签张量组成的元组。(二)创建tf.dat原创 2020-08-29 23:33:54 · 843 阅读 · 0 评论 -
【深度学习笔记(十六)】之tensorflow2中模型的保存与恢复
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. tensorflow2中模型的保存(一)概述 Tensorflow2中提供了 tf.train,Checkpoint这个变量保存与恢复类,可以使用save()和restore()方法将 Tensorflow中所有包含CheckPointable State的对象进行保存和恢复。 如,优化器tf.keras.op原创 2020-08-29 17:56:51 · 1848 阅读 · 0 评论 -
【深度学习笔记(十五)】之tensorflow2简化构建网络模型,训练以及测试过程
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. Keras Sequential 简化tensorflow2的网络搭建与训练过程,用Sequential API将网络的各个层按照顺序叠加起来,只需要提供包含各个层的列表,Keras就可将它们自动首尾相连,并返回模型。model = tf.keras.models.Sequential([ tf.keras.layers.Flatten(), tf.keras.l原创 2020-08-25 22:54:01 · 618 阅读 · 0 评论 -
【深度学习笔记(十四)】之Tensorflow2构建多层感知机网络并训练,测试
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. Tensorflow2构建网络以及训练,测试流程使用 tf,keras,datasets 获取数据集并预处理使用 tf.keras,Model 和 tf.keras.layers 搭建模型训练模型,使用tf.keras.losses计算损失函数,使用tf.keras.optimizer优化模型测试模型,使用tf.keras.metrics 计算评估指标二. 获取数据集以及预处理数据(一) 获取数原创 2020-08-21 23:58:23 · 627 阅读 · 0 评论 -
【深度学习笔记(十三)】之tensorflow2封装模型到模型类中
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. 模型的构建(一) keras中的Model Model用于构建模型,即将各种层进行组织和连接,并封装成一个整体,即模型,将输入数据通过各种层得到输出。 我们可以将模型通过继承Model,这个类类定义自己的模型,在继承类中,我们需要重写构造函数__init__()和模型调用函数call(input),还可以添加自原创 2020-08-20 22:00:37 · 1492 阅读 · 2 评论 -
【深度学习笔记(十二)】之tensorflow2实现线性回归以及函数介绍
一. Tensorflow2相关函数介绍(一) tensorflow2中的自动求导机制 tf.GradientTape()自动进行求导,在tf.GradientTape()的上下文内,所有的变量和计算步骤都会被记录用于求导。import tensorflow as tfx = tf.Variable(initial_value=3.)with tf.GradientTape() as tape: y = tf.square(x) y原创 2020-08-20 20:41:03 · 549 阅读 · 0 评论 -
【深度学习笔记(十一)】之VGG13模型tensorflow2代码复现(附详细注释)
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. VGG模型 前面已经介绍过了VGG网络模型,一共13层,这里说的13层指的是10层卷积层和3层全连接层,并没有包括池化层。下面代码详细地将VGG的13层网络模型复现,并用CIFAR100数据集进行训练,测试。 代码中附有详细的注释,从数据的预处理,到训练,再到测试。二. 代码实现import tensor原创 2020-08-17 22:23:33 · 1225 阅读 · 2 评论 -
【深度学习笔记(十)】之物体检测(R-CNN,Fast R-CNN, Faster R-CNN)
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. 物体检测(一)定义 在输入图像中检测出所有的不同物体,并用方框将所有的物体都框出来。(二)候选框(Region proposals) 如果用分类和回归定位,那么要用滑动窗口滑动整张图片,需要计算太多的位置和预处理太多的图片尺寸,耗时耗力。 物体检原创 2020-07-29 10:06:21 · 919 阅读 · 0 评论 -
【深度学习笔记(九)】之物体的分类与定位
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一.分类与定位(一)定义 我们不光要对物体进行分类,还要对物体在图片中的位置进行定位。(二)分类任务 输入图片,输出分类的标签,评估的标准是分类的准确性。 如下图所示:输入一张图片,输出标签为CAT。(三)定位任务 &原创 2020-07-29 09:56:58 · 1627 阅读 · 0 评论 -
【深度学习笔记(七)】之ALexNet卷积神经网络
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. AlexNet网络结构:Input Layer1 : conv + poolLayer2 : conv + poolLayer3 : convLayer4 : convLayer5 : conv + poolLayer6 : FullLayer7 : FullSoftmax Output二. AlexNet网络每一层的参数:(一)Input:  原创 2020-07-23 21:22:47 · 451 阅读 · 0 评论 -
【深度学习笔记(六)】之卷积神经网络中的反向传播
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一. 卷积层的前向传播和反向传播(一)卷积层的前向传播前向传播公式: wx + b = out w是滤波器的参数,x是前一层的输入,b是偏置项,out是每一层的输出原创 2020-07-23 20:47:39 · 1470 阅读 · 0 评论 -
【深度学习笔记(五)】之卷积神经网络组成介绍
一. 卷积神经网络(CNN)(一)结构组成 经典的神经网络我们之间已经讲过了,现在我们要讲的是卷积神经网络。 神经网络的结构是: 输入层 + 隐藏层 + 激活函数 + 输出层 卷积神经网络的组成:&原创 2020-07-19 20:17:28 · 1916 阅读 · 0 评论 -
【深度学习笔记(四)】之构造简单的神经网络
一. 构造三层的神经网络(一)设定参数尺寸 设定激活函数为sigmoid函数。设定X输入数据,尺寸为 5 x 3,设定y输出标签,尺寸为 5 x 1。 三层神经网络,中间只有一层,有4个神经元。设定第一层为L0, 中间层为L1, 输出层为L2。 L0输入层的尺寸为 5 x 3 &n原创 2020-07-18 09:39:41 · 377 阅读 · 0 评论 -
【深度学习笔记(三】之反向传播
一. 前向传播与反向传播 之前用SVM损失函数与softmax分类器计算的都是得分以及概率,并得到相应的损失函数。这是前向传播的过程。 得到损失函数以后,我们要根据损失函数来优化我们的模型,即优化W参数,更新W参数,使得损失值越低越好。这是反向传播的过程。二. 优化模型 那么,我们如何来优化W参数呢?这里,我们就要计算每个原创 2020-07-16 13:49:15 · 589 阅读 · 0 评论 -
【深度学习笔记(二)】之Softmax分类器
一. Softmax分类器 用SVM损失函数得出的只是一个个的分数,还要通过对比分数来分类。那么,如果直接输出结果为分类的概率,岂不是更好? 这里,给出了softmax分类器,直接输出分类的概率。二.Sigmoid函数 由于概率是在【0,1】之间,这时就需要引入sigmoid函数原创 2020-07-16 10:45:34 · 5234 阅读 · 0 评论 -
【深度学习笔记(一)】之线性分类与损失函数
一.线性分类函数 f(x,W) = W*x + b x为输入图像,W为多个参数,f(x,W)为输出是多个分类的概率。比如: x 图像的大小为 32 x 32 x 3,排成一列,尺寸为 3072 x 1;  原创 2020-07-15 07:50:43 · 789 阅读 · 0 评论