![](https://img-blog.csdnimg.cn/b443d925054d4dd6b4e446f6419557ba.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
Deep Learning
文章平均质量分 71
用最通俗的语言,描述我所理解的技术。
乱红飞
用技术追赶世界潮流,从人文历史把握人生方向。
展开
-
ONNX 结构分析
ONNX 结构分析onnx将每一个网络的每一层或者说是每一个算子当作节点Node,再由这些Node去构建一个Graph,相当于是一个网络。最后将Graph和这个onnx模型的其他信息结合在一起,生成一个model,也就是最终的.onnx的模型。ResNet50这里我们将 ResNet50 的onnx图导出成文件。整体内容如下图所示,是整体的内容,其中核心部分 graph 被隐藏了起来。除了 graph 之外,包含了一些版本信息。node上文讲过了,网络的每一层或者每一个算子当作一个节原创 2021-07-21 20:57:55 · 1275 阅读 · 0 评论 -
TensorFlow中Graph完整的构建过程
学习TensorFlow之后,我们知道,在TensorFlow中,主要是通过构建graph的形式来构建真个框架的。本文想要彻底高清楚的问题就是:TensorFlow 中真个 graph 的构建流程:用户创建的时候是怎么构建的,也就是 python api 提供了什么样的形式来构建用户看的见的 graph;python api 创建的 graph 如何转换成 c++ 底层可用于计算的graphgraph 最终执行在硬件设备上是以什么形式;我想搞清楚这三个问题,基本上就掌握了深度学习框架,是怎么完原创 2021-06-23 16:36:53 · 1232 阅读 · 0 评论 -
卷积神经网络迁移学习
什么是迁移学习要训练一个复杂的卷积神经网络也需要几天甚至几周的时间。为了解决标注数据和训练时间的问题,提出了迁移学习。所谓迁移学习,就是将一个问题上训练好的模型通过简单的调整使其适用于一个新的问题。简单来说,就是借助原先的经验,加上目前的调整,解决当下的问题。实现思想这里我么能使用 Inception-v3 模型来做迁移学习的基础模型。也就是说,inception-v3 在ImageNet 数据集上训练完成之后,在数据集 ImageNet 上表现良好,但是我们想要解决自己的图像分类问题,直接使用原创 2021-06-20 17:31:16 · 765 阅读 · 0 评论 -
经典网络-LeNet-5
在下面的篇幅中将详细介绍LeNet-5 模型每一层的结构。③第一层,卷积层这一层的输入就是原始的图像像素,LeNet-5 模型接受的输入层大小为32×32×1。第一个卷积层过滤器的尺寸为5×5,深度为6,不使用全0 填充,步长为1。因为没有使用全0填充,所以这一层的输出的尺寸为32−5+1=28,深度为6。这一个卷积层总共有5×5×1×6+6=156 个参数,其中6 个为偏置项参数。因为下一层的节点矩阵有28×28×6=4704个节点, 每个节点和5×5=25 个当前层节点相连, 所以本层卷积.原创 2021-06-20 16:43:12 · 560 阅读 · 1 评论 -
归一化层(Batch Normalization)详解
https://www.biaodianfu.com/cnn.html声明本博客是个人学习时的一些笔记摘录和感想,不保证是为原创,内容汇集了网上相关资料和书记内容,在这之中也必有疏漏未加标注者,如有侵权请与博主联系。...原创 2021-06-20 15:46:48 · 6416 阅读 · 0 评论 -
小白都能看懂的卷积神经网络分析
和全连接神经网络一样,卷积神经网络中的每一个节点都是一个神经元。在全连接神经网络中,每相邻两层之间的节点都有边相连,于是一般会将每一层全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网络,相邻两层之间只有部分节点相连,为了展示每一层神经元的维度,一般会将每一层卷积层的节点组织成一个三维矩阵。除了结构相似,卷积神经网络的输入输出以及训练流程与全连接神经网络也基本一致。以图像分类为例,卷积神经网络的输入层就是图像的原始像素,而输出层中的每一个节点代表了不同类别的可信度。这和全连接神经网络.原创 2021-06-20 15:41:44 · 1820 阅读 · 0 评论 -
过拟合问题
真实的应用中想要的并不是让模型尽量模拟训练数据的行为,而是希望通过训练出来的模型对未知的数据给出判断。模型在训练数据上的表现并不一定代表了它在未知数据上的表现。过拟合问题就是可以导致这个差距的一个很重要因素。什么是过拟合所谓过拟合,指的是当一个模型过为复杂之后,它可以很好地“记忆”每一个训练数据中随机噪音的部分而忘记了要去“学习”训练数据中通用的趋势。举一个极端的例子,如果一个模型中的参数比训练数据的总数还多,那么只要训练数据不冲突,这个模型完全可以记住所有训练数据的结果从而使得损失函数为0。可以.原创 2021-06-19 17:50:44 · 305 阅读 · 0 评论 -
神经网络优化算法详解
神经网络的优化算法,主要是两种反向传播算法(back propagation)和梯度下降算法(gradient decent)。这两种方法最终的目的都是调整网络中的参数信息。梯度下降法主要是用于优化单个参数的取值,也就是说,每次对某个参数求偏导,根据求导信息,和学习率每次更新这一个参数的数值。反向传播算法给出了一个高效的方式在所有参数上使用梯度下降算法,从而使神经网络模型在训练数据上的损失函数尽可能小。梯度下降算法优化参数取值的过程假设用θ 表示神经网络中的参数,J(θ )表示在给定的参数取值下原创 2021-06-19 16:53:27 · 5650 阅读 · 0 评论