一些总结笔记

1. 主成分分析(PCA),该方法将数据线性映射到低维空间,以使低维表示中的数据差异最大化

2. 有监督学习的做法是给样本标出label,计算机可以自己在数据中发现规律

3. Auto Encoder实际上是一个信息压缩的过程,把高维数据压缩至低维度

4. SEAttention

5. 一般来说,提升网络性能最直接的办法就是增加网络深度和宽度,这也就意味着更巨量的参数

    既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能,论文提出了inception的结构

   

6. 网络在FC之前采用了average pooling层,想法来自NIN,事实证明可以将TOP1 accuracy提高0.6%,3x3卷积之后还要再加激活吗?作者也做了对比试验,表明添加非线性激活会提高性能。

7. GoogLeNet主要就是提出了Batch Normalization,提升了训练的速度,使得网络的训练可以用更快的学习率以及不再那么担心参数的初始化对网络训练的影响。不但如此,在某些时候,还表现出一种不需要dropout就能实现的一种正则化处理。

8. 实际中,饱和问题和导致梯度减小通常利用ReLu、初始化以及小的学习率来解决。

9. 其中Dropout层必须放在池化之后

10. 使用多个较小卷积核的卷积层代替一个卷积核较大的卷积层,一方面可以减少参数,另一方面作者认为相当于进行了更多的非线性映射,增加了网络的拟合表达能力

11.

12.

13. 在轻量级网络MobileNet,ShuffleNet上也进行了实验,可以提升的点更多一点大概在1.5-2%,se模块就可以加到一个block结束的位置,进行一个信息refine。

14.

1.

 

2.

6. DeseNet

论文:Densely Connected Convolutional Networks

论文链接:https://arxiv.org/pdf/1608.06993.pdf

代码的github链接:https://github.com/liuzhuang13/DenseNet

MXNet版本代码(有ImageNet预训练模型): https://github.com/miraclewkf/DenseNet

先列下DenseNet的几个优点,感受下它的强大:

1、减轻了vanishing-gradient(梯度消失)

2、加强了feature的传递

3、更有效地利用了feature

4、一定程度上较少了参数数量

  1. mobileNet-V1

主要是将传统的3D卷积用Deep-wise卷积进行替换,为了有更小更快的模型,只需要调整宽度因子与分辨率因子

轻量级深度学习网络(一):详解谷歌轻量级网络MobileNet-v1_chenyuping666的博客-CSDN博客_轻量级深度学习

  1. mobilnet-v2

论文作者称其为 Linear Bottleneck。这么做的原因,是因为作者认为激活函数在高维空间能够有效的增加非线性,而在低维空间时则会破坏特征,不如线性的效果好。由于第二个 PW 的主要功能就是降维,因此按照上面的理论,降维之后就不宜再使用 ReLU6了

   

Groups能够被输入通道进行整除

1.调用函数需要知道函数的地址,函数所占的内存空间与函数的类型有关,与类型的实例无关

2.空类与有构造和析构函数的类,sizeof()求大小都为1  空类实例是需要占有一定的空间的

3.编译器一旦发现类中有虚函数,就会为该类型生成虚函数表,并为每一个实例添加一个指向虚函数表的指针,从而类的大小就为指针的大小

4.static 成员函数只能调用非static成员,从而也就是python中的静态方法

5.const 成员函数只能访问,不能修改非const成员

6.函数可以返回引用,但是被调用函数中的变量必须声明为static,否则函数结束时变量被销毁

7.要取得[0,n)  就是rand()%n     表示 从0到n-1的数
   要取得[a,b)的随机整数,使用(rand() % (b-a))+ a; 
   要取得[a,b]的随机整数,使用(rand() % (b-a+1))+ a; 
   要取得(a,b]的随机整数,使用(rand() % (b-a))+ a + 1; 
   通用公式:a + rand() % n;其中的a是起始值,n是整数的范围。 
   要取得a到b之间的随机整数,另一种表示:a + (int)b * rand() / (RAND_MAX + 1)。 
   要取得0~1之间的浮点数,可以使用rand() / double(RAND_MAX)。
   srand((int)time(0));  // 产生随机种子  把0换成NULL也行

9.  *it = toupper(*it);  创建字符串text,然后改成大写字符

10. 图像分割的loss:1. Cross Entropy Loss  2. Dice Loss
Cross Entropy Loss就是普通的交叉熵损失,当语义分割平台利用Softmax对像素点进行分类的时候,进行使用
Dice loss将语义分割的评价指标作为Loss,Dice系数是一种集合相似度度量函数,通常用于计算两个样本的相似度,取值范围在[0,1]
如果作为LOSS的话是越小越好,所以使得Dice loss = 1 - Dice,就可以将Loss作为语义分割的损失了

11.Adversarial :对抗

12.平均池化效果比最大值池化好,多加一个卷积,反而效果比没有加卷积差

13.RuntimeError: Expected 4-dimensional input for 4-dimensional weight [24, 1, 3, 3], but got 3-dimensional input of size [1, 256, 256] instead
                img = torch.from_numpy(img)
                img = Variable(img[None,:,:,:])
                img = img.to(device)
                y = model(img)

14.            if(img_mode == 0):
                    img=img[np.newaxis,:]
                else:
                    img = img.transpose(2, 0, 1)

15. 把CUDA tensor格式的数据改成numpy  out = model(inputs)    ls.append(out.detach().cpu().numpy())
# model_out为CUDA上的tensor
model_out = model_out.cpu()
# detach():去除梯度
model_out = model_out.detach().numpy()

16.img = (img.astype(np.float32) / 255.) 将数据进行归一化

17.     traced_script_module = torch.jit.trace(model, torch.ones(1, img_channle, 512, 512).to(device))
          traced_script_module.save(model_save_path + model_Information + '_best.pt')

          torch.save(model.state_dict(),model_save_path + model_Information + '_last.pth')

18.
对于SSIM的计算而言,计算图像均值、方差的高斯核的尺寸大小的选择尤为重要。如果选小了,则由它计算出来的SSIM Loss无法很好地保持图像局部结构,并且会出现伪影。如果选大了,网络则会在图像边缘处产生一些噪声。
  相比于花大力气去调整高斯核尺寸,人们提出了使用多尺度的SSIM(multi-scale SSIM,简称为MS-SSIM),MS-SSIM的论文可单击查看,其中详细介绍了SSIM和MS-SSIM的公式推导。
  多尺度的实质就是对生成图像和真实图像不断地以2为因子进行下采样(一般下采样4次,即取5个尺度(分辨率)),从而得到具有多个分辨率的图像。并对这些不同分辨率的图像依次进行SSIM的评估,最后以某种方式将这些SSIM融合成一个值,就是MS-SSIM。关于MS-SSIM和SSIM的计算与Python实现,笔者后面会专门写一篇博客进行讲解。
  MS-SSIM Loss的定义方式和SSIM完全一致,只不过把计算SSIM改成了计算MS-SSIM而已

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

沐雨清风 จุ๊บ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值