![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 86
Marson丶
这个作者很懒,什么都没留下…
展开
-
【第4周】MobileNet_ShuffleNet
使用了DW卷积和PW卷积计算量对比Squeeze(压缩)。顺着空间维度来进行特征压缩,将每个二维的特征通道变成一个实数,这个实数某种程度上具有全局的感受野,并且输出的维度和输入的特征通道数相匹配。它表征着在特征通道上响应的全局分布,而且使得靠近输入的层也可以获得全局的感受野,这一点在很多任务中都是非常有用。Excitation(激发)。它是一个类似于循环神经网络中门的机制。通过参数来为每个特征通道生成权重,其中参数被学习用来显式地建模特征通道间的相关性。Reweight(缩放)。原创 2023-08-02 22:15:12 · 91 阅读 · 0 评论 -
【第3周】ResNet+ResNeXt
Residual learning的基本原理是通过引入残差连接,让神经网络可以学习残差(当前层输出与目标输出之间的差异),而不是直接学习映射函数。这样可以解决深层网络训练中的梯度消失和梯度爆炸问题,使得网络更易于训练和优化。原创 2023-07-27 10:37:25 · 94 阅读 · 1 评论 -
【第2周】卷积神经网络
在dataloader中,shuffle参数用于控制数据在每个epoch(一个完整的数据集迭代)开始时是否随机打乱。shuffle=True时,在每个epoch开始时将数据随机打乱,这有助于防止模型对数据的顺序依赖性。shuffle=False时,数据将按照原始顺序加载,适用于某些需要按顺序处理数据的情况。原创 2023-07-21 12:43:50 · 56 阅读 · 1 评论 -
【第1周】深度学习基础
使用torch.tensor()可以创建数、数组等。还可以生成特殊的数组,比如0数组、1数组计算包括基本运算,加减乘除,求幂求余布尔运算,大于小于,最大最小线性运算,矩阵乘法,求模,求行列式多生成点数据,图像会更加圆滑tensor的拼接AlexNet特点深度网络结构:相较于LeNet,AlexNet采用了更深的网络结构,具有8个卷积层和3个全连接层。通过增加网络深度,AlexNet能够学习到更高级别的特征表示,从而提高模型的表达能力。原创 2023-07-14 00:56:58 · 114 阅读 · 1 评论