![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CNN
吃小花的魔王
没有
展开
-
控制系统的复频域分析
axis(a b c d) x轴a-b y轴c-d。原创 2023-10-15 18:08:35 · 131 阅读 · 1 评论 -
台湾大学MATLAB学习笔记(四)绘图
本期绘图是为了结合CAS系统的需要提前学习,会在内容嵌入一些mathematical中的相关知识.我发现matlab自带的教程还不错,可以结合录入笔记。原创 2022-12-10 17:47:07 · 113 阅读 · 0 评论 -
VGG16迁移学习+集成精确率,召回率评价指标
import torchimport torch.nn as nnimport torch.optim as optimfrom torchvision import datasets, transformsfrom torchvision import modelsfrom torch.utils import datadevice = torch.device("cuda" )import matplotlib.pyplot as pltclass Metric: '''Met.原创 2022-04-22 22:43:05 · 944 阅读 · 1 评论 -
深度学习笔记理论篇:归一化
先贴一张阅读paper的一部分实际上啊读到这里,我就对这个行归一化产生了疑问,什么是归一化?归一化的作用是什么呢?(题外话:最近看了李沐对如何读文献的一些见解,个人感觉很受用,建议初读文献的小伙伴们可以去看看)注:本人数学功底尚浅,许多知识无法介绍,有待进一步学习,本笔记只讨论了归一化的学习范围.首先让我们看看广义归一化的解释:归一化(normalization)是一种简化计算的方式,即将有量纲的表达式,经过变换,化为为无量纲的表达式,成为标量。 在多种计算中都经常用到这种方法,一般原创 2022-03-22 21:19:07 · 1122 阅读 · 0 评论 -
深度可分离卷积
深度可分离卷积简介深度可分离卷积(depthwise separable convolution)是一种广泛应用于卷积神经网络模型结构中的即插即用模块,即插即用,方便部署,可以达到轻量化参数和计算量的需求.宏观上来说,其可以分解为两个更小的操作:depthwise convolution 和 pointwise convolution.具体原理2.1普通卷积考虑一个普通卷积,给定输入大小为DF*DF*M的tensor,当使用大小为Dk*Dk*M的卷积核进行卷积运算时,有如下定义成立:fi原创 2022-03-16 22:41:12 · 6197 阅读 · 1 评论 -
Stochastic pooling随机池化代码实现
Stochastic Pooling(随机池化)随机池化Stochastic Pooling是Zeiler等人于ICLR2013提出的一种池化操作。随机池化的计算过程如下先将方格中的元素同时除以它们的和sum,得到概率阵 按照概率随机选中方格 pooling得到的值就是方格位置的值 随机池化只需对特征图中的元素按照其概率值大小随机选择,即元素值大的被选中的概率也大,而不像max-pooling那样,永远只取那个最大值元素,这使得随机池化具有更强的泛化能力import torch.原创 2022-03-04 16:44:36 · 1099 阅读 · 2 评论 -
pytorch中expand函数的使用
信息源地址:torch.Tensor - PyTorch中文文档1.理论解释2.实践与理解expand1.tensor.expand()函数可以将维度值包含 1 的Tensor(如:torch.Size([1, n])或者torch.Size([n, 1]))的维度进行扩展2.将 -1 传递给新扩展维度或者无需扩展维度均表示不更改该维度的尺寸。2. expand_as:同expand(x.shape)用法结论:关于expand用法,注意到只能将维度值.原创 2022-03-01 08:19:28 · 4831 阅读 · 0 评论