人工智能学习笔记Day1

文章介绍了深度学习中的一些核心概念,包括10分类问题中的权重向量,预训练模型在初始化权重上的重要性,正则化如何防止过拟合,以及反向传播和前向传播在模型训练中的作用。同时,讨论了数据预处理、卷积层的参数如卷积核和池化层的功能,以及激活函数和全连接层在神经网络中的应用。此外,还提到了几个经典的网络结构如AlexNet、VGG和ResNet。
摘要由CSDN通过智能技术生成

1.如果是10分类问题,那么w是权重向量,并且有10个权重向量,x1,x2是图片上的像素点

2. 预训练模型很重要,因为它给了比较好的初始化权重(初始化权重如果是随机的,其实是不好的)

3.正则化惩罚项:让模型知道哪个权重比较好,防止过拟合,有很多种正则化惩罚项方式。正则化惩罚项一般加在损失函数里。

4.batch_size越大越好

5.分类任务本类别不关注预测成为其他类别的概率(训练阶段)

6.反向传播公式推导 不需要在意,知道是用来更新权重的就行了

7.前向传播的作用就是得到损失

8.数据预处理,归一化,去均值等

9.多少个卷积核得到多少张特征图

10.热度图:权重参数关注图像中的哪个区域

11.padding:为了使卷积过程中每个像素点都计算公平(若没有,中间的像素点计算更多次)

12.卷积层涉及参数:滑动窗口步长,卷积核尺寸,边缘填充, 卷积核个数

13.卷积核在不同区域采用权重参数共享的方式进行特征提取(卷积计算)

14.池化层:压缩了特征图长和宽,方式有:最大池化,平均池化等

15.激活函数:引入非线性因素,例如:relu激活函数,当x<0的部分,y值全为0,也就是抑制了x<0的部分的特征值

16.全连接层(FC)的作用:将前面得到的特征图展开成为一个向量,然后做一个矩阵运算(Fc=WX+b),进而进行分类

17.经典网络:AlexNet,VGG,RestNet

18.大卷积核和小卷积核的比较:堆叠小的卷积核所需要的参数更少,并且卷积过程越多,特征提取也会越细致,加入的非线性变换也随着增多,还不会增大权重参数个数

19.CNN的问题:特征提取只关注相邻的像素点,没有考虑全局信息(通过多层卷积核堆叠可以实现)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值