- 博客(7)
- 收藏
- 关注
原创 AI编程-AlexNet模型
1.AlexNet是更大更深的LeNet,10X参数个数,260x计算复杂度。2.新进入了丢弃法、RelU、最大池化层和数据增强。3.赢得了2012年的ImageNet竞赛后,标志着新一轮神经网络的热潮开始。
2024-03-13 22:13:50 346
原创 AI编程-LeNet
1.LeNet是80年代末的一个网络,当时出现主要是为了识别手写的数字,如邮政编码等。2.MNIST数据集,50000个训练数据,10000个测试数据,图片大小为28*28,10类。3.LetNet先使用卷积层来学习图片空间信息,然后使用全连接层来转换到类别空间。4.LeNet是一个 7 层的神经网络,包含 3 个卷积层,2 个池化层,1 个全连接层,1个输出层。
2024-03-05 21:16:07 704
原创 AI编程-通道数和池化层
1.输出的通道数是卷积层的超参数,输入不是,2.每个输入通道有独立的二维卷积核,所有通道结果相加得到一个输出通道结果。3.每个输出通道有独立的三维卷积核。4.池化层返回窗口中的最大值或者平均值。5.池化层主要是缓解卷积层对位置的敏感性。6.池化层同样有窗口大小、填充和步幅作为超参数。
2024-03-04 21:47:00 320
原创 AI编程第三篇-卷积
1.填充和步幅是卷积层的超参数。2.填充在输入周围添加额外的行和列,来控制输出形状的减少量。3.步幅是每次滑动核窗口时的行/列的步长,可以成倍减少输出的形状。
2024-03-03 20:59:55 311
原创 AI编程第二篇-模型选择(如何选择超参数)
1.权重衰退通过L2正则项使得模型参数不会过大,从而控制模型的复杂度。2.正则项权重是控制模型复杂度的超参数。3.丢弃法将一些输出项随机置为0来控制模型的复杂度。4.Dropout是一个正则项,只在训练中使用。5.丢弃概率是控制模型复杂度的超参数。
2024-03-02 23:33:43 343
原创 AI学习第一篇:softmax回归和多层感知机
1.感知机是一个二分类模型,是最早的AI模型之一。2.它的求解算法等价于使用批量大小为1的梯度下降3.由于它部能你和XOR函数,导致第一次AI寒冬。
2024-03-02 21:39:46 507
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人