深度学习
文章平均质量分 95
Charon_AC
这个作者很懒,什么都没留下…
展开
-
Deep learning 九 循环神经网络
目前见过的所有神经网络(比如密集连接网络和卷积神经网络)都有一个主要特点,那就是它们都没有记忆。它们单独处理每个输人,在输人与输人之间没有保存任何状态。对于这样的网络,要想处理数据点的序列或时间序列,需要向网络同时展示整个序列,即将序列转换成单个数据点。例如,在IMDB 示例中就是这么做的:将全部电影评论转换为一个大向量然后一次性处理。这种网络叫作前馈网络(feedforward network)。原创 2023-12-16 12:43:35 · 1016 阅读 · 0 评论 -
Deep learning 八
将使用与前面相同的模型架构'''模型定义'''原创 2023-12-16 11:39:04 · 818 阅读 · 0 评论 -
Deep learning 六
卷积神经网络表示非常适合可视化,很大程度上是因为它们是视觉概念的表示。下面是三种最容易理解也最有用的方法:有助于理解卷积神经网络连续的层如何对输人进行变换,也有助于初步了解卷积神经网络每个过滤器的含义。:有助于精确理解卷积神经网络中每个过滤器容易接受的视觉模式或视觉概念:有助于理解图像的哪个部分被识别为属于某个类别,从而可以定位图像中的物体。原创 2023-11-16 17:17:27 · 77 阅读 · 0 评论 -
Deep learning 五
你在做特征提取时已经完成了前三个步骤。我们继续进行第四步:先解冻 conv_base,然后冻结其中的部分层。"""卷积基的架构如下"""我们将微调最后三个卷积层,也就是说,直到 block4_poo1 的所有层都应该被冻结,而block5_conv1、block5_conv2 和block5_conv3 三层应该是可训练的。为什么不微调更多层?为什么不微调整个卷积基?你当然可以这么做,但需要考虑以下几点口 卷积基中更靠底部的层编码的是更加通用的可复用特征,而更靠顶部的层编码的是更专业化的特征。原创 2023-11-11 21:40:39 · 68 阅读 · 1 评论 -
Deep learning 四
下列代码将会展示一个简单的卷积神经网络。它是conv2D层和MaxPooling2D层的堆叠重要的是,卷积神经网络接收形状为(image_height,image_width,image_channels)的输人张量(不包括批量维度)。本例中设置卷积神经网络处理大小为(28,28,1)的输人张量这正是MNIST图像的格式。我们向第一层传人参数 input_shape=(28,28,1)来完成此设置我们来看一下目前卷积神经网络的架构。原创 2023-11-11 18:07:13 · 212 阅读 · 1 评论 -
Deep learning 三 机器学习基础
其中有三个重要参数最后一层的激活损失函数优化配置。原创 2023-11-04 15:21:19 · 73 阅读 · 1 评论 -
Deep learning 二(三个具体例子)
"""什么是激活函数,为什么它们是必要的?没有一个激活函数像relu(也称为非线性),致密层将由两个线性操作,一个点积和添加:输出=点(W,输入)+b所以层只能学习线性变换(仿射变换)的输入数据:假设空间将所有可能的线性转换的输入数据到一个16维空间。这样的假设空间太有限,不会从多层表示中获益,因为线性层的深层堆栈仍然会实现线性操作:添加更多的层不会扩展假设空间。为了获得一个更丰富的假设空间,这将受益于深度表示,您需要一个非线性的,或激活函数。relu是深度学习中最流。原创 2023-10-28 19:58:16 · 100 阅读 · 1 评论 -
Deep learning 一
Keras有以下几个特点1.它允许相同的代码在CPU或GPU上无缝运行。2.它有一个用户友好的API,可以轻松地快速地原型深度学习模型。3.它内置了对卷积网络(用于计算机视觉)、递归网络(用于序列处理)以及两者的任何组合的支持。4.它支持任意的网络体系结构:多输入或多输出模型、图层共享、模型共享等。这意味着Keras基本上适用于构建任何深度学习模型,从生成式对抗网络到神经图灵机。典型的Keras工作流:1.定义训练数据:输入张量和目标张量。2.定义一个将输入映射到目标的层(或模型)网络。原创 2023-10-27 12:10:57 · 66 阅读 · 1 评论