深度学习基础知识(学习笔记)

本文介绍了深度学习的基础知识,包括训练误差与泛化误差、欠拟合与过拟合,以及影响因素。深入讨论了交叉熵损失函数、激活函数如ReLU和Sigmoid,并探讨了权重衰减和丢弃法等防止过拟合的技术。此外,讲解了卷积神经网络(CNN)、LeNet、AlexNet、VGG、Inception、ResNet和DenseNet的结构特点,以及卷积层的填充和步幅、池化层的作用。最后,提到了循环神经网络(RNN)在处理序列数据中的应用,如语言模型,以及物体检测的相关技术,如锚框和IoU计算。
摘要由CSDN通过智能技术生成

训练误差:指模型在训练数据集上的误差
泛化误差:指模型在任意一个测试数据样本表现出的误差的期望

欠拟合:无法的到较小训练误差
过拟合:训练误差远小于测试数据得到的误差
影响因数:模型复杂度与训练数据的大小
交叉熵损失函数
在这里插入图片描述

在这里插入图片描述

ndarray.concat函数
x = [[1,1],[2,2]]
y = [[3,3],[4,4],[5,5]]
z = [[6,6], [7,7],[8,8]]

concat(x,y,z,dim=0) = [[ 1., 1.],
[ 2., 2.],
[ 3., 3.],
[ 4., 4.],
[ 5., 5.],
[ 6., 6.],
[ 7., 7.],
[ 8., 8.]]

Note that you cannot concat x,y,z along dimension 1 since dimension
0 is not the same for all the input arrays.

concat(y,z,dim=1) = [[ 3., 3., 6., 6.],
[ 4., 4., 7., 7.],
[ 5., 5., 8., 8.]]

激活函数
上述问题的根源在于全连接层只是对数据做仿射变换(affine transformation),而多个仿射变换的叠加仍然是一个仿射变换。解决问题的一个方法是引入非线性变换,例如对隐藏变量使用按元素操作的非线性函数进行变换,然后再作为下一个全连接层的输入。这个非线性函数被称为激活函数(activation function)
1.ReLU函数
ReLU(x)=max(x,0)(保留正数)
2.Sigmoid函数
他可以将元素的值变还到0-1之间
Sigmoid(x)=1/(1+exp(-x)
在这里插入图片描述

权重衰减:(应对过拟合的方法)
L2范数正则化就是在原来损失函数的基础上添加L2范数惩罚项(及权重参数的每个元素的平方之和与一个正常数的乘积ÿ

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值