《动手学深度学习》第一次打卡-学习小队

一、学习任务:

  1. Task01:线性回归;Softmax与分类模型、多层感知机
  2. Task02:文本预处理;语言模型;循环神经网络基础

二、线性回归

2.1 训练误差与泛化误差

图1 两种误差及其计算方法

2.2 验证数据集

预留一部分在训练数据集和测试数据集以外的数据来进行模型选择

2.3 K折交叉验证

把原始训练数据集分割成K个不重合的子数据集,然后使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型,最后对这K次训练误差和验证误差分别求平均

2.4 过拟合与欠拟合

在这里插入图片描述

2.5 模型复杂度

在这里插入图片描述

2.6 权重衰减——L2范数正则化

权重衰减等价于L2范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。
在这里插入图片描述
引入L2正则化的线性回归的损失函数
在这里插入图片描述

2.7 丢弃法

在这里插入图片描述

三、softmax和分类模型

在这里插入图片描述
https://blog.csdn.net/qq_43660987/article/details/91613522

3.1 原理

将单样本分类通过矢量计算来表达。假设softmax回归的权重和偏差参数分别为
在这里插入图片描述
设高和宽分别为2个像素的图像样本i的特征为
在这里插入图片描述
输出层的输出为
在这里插入图片描述
预测为狗、猫或鸡的概率分布为
在这里插入图片描述
softmax回归对样本分类i的矢量计算表达式为
在这里插入图片描述

3.2 交叉熵损失函数

3.2.1 交叉熵

在这里插入图片描述

3.2.2 交叉熵损失函数

在这里插入图片描述

四、多层感知机

在这里插入图片描述
虽然神经网络引入了隐藏层,却依然等价于一个单层神经网络:其中输出层权重参数为WhWo,偏差参数为bhWo。不难发现,即便再添加更多的隐藏层,以上设计依然只能与仅含输出层的单层神经网络等价。

4.1 激活函数

4.1.1 ReLU函数

ReLU(rectified linear unit)函数提供了一个很简单的非线性变换。给定x元素,该函数定义为
在这里插入图片描述
可以看出,ReLU函数只保留正数元素,并将负数元素清零。
在这里插入图片描述

4.1.2 Sigmoid函数

sigmoid函数可以将元素的值变换到0和1之间:
在这里插入图片描述
在这里插入图片描述

4.1.3 tanh函数

tanh(双曲正切)函数可以将元素的值变换到-1和1之间:
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值