- 博客(3)
- 收藏
- 关注
原创 层对 Pairs of layers
不同类型的层对和其之间的连接方式会影响网络的性能和学习能力。例如,在深度卷积神经网络中,卷积层和池化层是常见的层对,用于处理图像数据。在循环神经网络(RNN)中,循环层通常与其他层组成层对,用于处理时序数据。因此,层对是神经网络结构的一个关键方面,可以根据特定任务和数据类型进行调整。层对通常指在神经网络中的层级结构中的层之间的组合,这些组合用于实现不同类型的神经网络结构。神经网络通常由多个层组成,每个层都包含一个或多个神经元(也成为节点或单元)。这些层可以分为不同类型,如输入层、隐藏层和输出层。
2023-10-12 22:18:42
61
原创 Python 编程入门与实战 (第一章:Python 概述)
作用域:是python程序的一个文本区域,用户可以在其中直接访问一个名字空间。直接访问意味着当我们寻找一个未加限定引用的名称时,python会试图在这个名字空间中查找。在寻找一个名称时,名字空间的依次搜索,即(LEGB规则)。python是通过缩进代码来定义作用域的,我们通过缩进进入下一个作用域,一般使用4个空格的缩进。在自定义方法时,不应使用双下划线作为方法名的前缀和后缀。类的定义是用class创建的,class后面的代码都被缩进了,称为类体。在python中,每个具有前缀和后缀双下划线的方法称为。
2023-10-06 23:01:23
71
1
原创 读懂深度可分离卷积(Depth-wise Conv)
得到三通道[8,8,3]特征图后,利用1*1卷积进行逐点卷积以将不同通道的特征进行融合,当使用一个三通道[1,1,3]卷积核进行点卷积操作后,原三通道特征图会形成单通道的[8,8,1]特征图,此时,仅需要256个[1,1,3]卷积核就能够输出[8,8,256]的特征图,此时的参数量为1*1*3*256=768,相比于传统卷积操作大大减少了参数量。并且输出特征图和标准卷积相同。DW Conv实际上是由可分离卷积拓展而来,是一种轻量级的卷积操作,能够减少参数量和运算量,FLOPs只有标准卷积的4.4%左右。
2023-09-21 23:00:07
2680
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人