![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
动手学深度学习笔记
文章平均质量分 59
五条凪
这个作者很懒,什么都没留下…
展开
-
《动手学深度学习》学习笔记:11 模型选择 + 过拟合和欠拟合
然后执行k次模型训练和验证,每次在k−1个子集上进行训练, 并在剩余的一个子集(在该轮中没有用于训练的子集)上进行验证。在实际中,我们只能通过将模型应用于一个独立的测试集来估计泛化误差, 该测试集由随机选取的、未曾在训练集中出现的数据样本构成。当我们有简单的模型和大量的数据时,我们期望泛化误差与训练误差相近。当我们有更复杂的模型和更少的样本时,我们预计训练误差会下降,但泛化误差会增大(此处可以画出四宫格)。是指, 模型应用在同样从原始样本的分布中抽取的无限多数据样本时,模型误差的期望。原创 2024-02-05 19:23:29 · 671 阅读 · 0 评论 -
动手学深度学习》学习笔记:10 多层感知机
【代码】动手学深度学习》学习笔记:10 多层感知机。原创 2024-02-04 00:04:46 · 295 阅读 · 0 评论 -
《动手学深度学习》学习笔记:08 softmax回归
【代码】《动手学深度学习》学习笔记:08 softmax回归。原创 2024-02-03 23:41:47 · 267 阅读 · 1 评论 -
动手学深度学习》学习笔记:09 图片分类数据集
colab中如果绘图步骤报错的话可能是matplotlib包版本低的原因,可以运行。原创 2024-02-03 21:39:42 · 143 阅读 · 1 评论 -
《动手学深度学习》学习笔记:08 线性回归
线性回归可以看做是一层的神经网络,那么它的构建与训练的流程是相当完善的,可以通过解剖这只麻雀来熟悉神经网络从构建数据集到预测的全部流程。整体包括了生成数据集、读取数据集、定义模型、初始化模型参数、定义损失函数、定义优化算法、训练、预测等过程。原创 2024-02-02 21:10:07 · 121 阅读 · 0 评论 -
《动手学深度学习》学习笔记:04 数据操作 + 数据预处理~ 07 自动求导
其中删除法是直接将有缺省值的数据删除,而插值法则是将缺省值作为一个新的类型,可以在后续将此有缺省值的特征进行编码或者制作成如下图所示的类似one-hot的样式(如果此特征对应种类较少)。很多习以为常的操作都会占用新的内存,影响程序运行,如Y = X + Y得到的Y会占用新内存来存储,可以用Y[:] = X + Y 或者 Y += X来避免。可以使用自带的函数来做tensor与numpy的互相转换,也可以用内置函数来转换单元素tensor。cat()函数可以用来拼接张量,dim用来选择拼接的维度。原创 2024-01-26 22:03:12 · 445 阅读 · 1 评论