李沐深度学习
文章平均质量分 87
魔理沙偷走了BUG
万年的铁树要开花
展开
-
【李沐深度学习笔记】图片分类数据集
把上面的所有功能都整合到load_data_fashion_mnist函数中"""下载Fashion-MNIST数据集,然后将其加载到内存中参数:batch_size: 批次大小,用于小批量训练resize: 可选参数,指定图像调整的大小返回:包含训练数据迭代器和测试数据集的元组"""# 创建数据变换列表,将图像转换为Tensor格式# 如果提供了resize参数,将图像调整大小添加到变换列表if resize:# 将变换列表组合成一个组合变换。原创 2023-09-30 12:44:41 · 338 阅读 · 2 评论 -
【李沐深度学习笔记】损失函数
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。原创 2023-09-30 10:57:32 · 235 阅读 · 1 评论 -
【李沐深度学习笔记】Softmax回归
事件包含的信息量大小(事件发生的难度有多大)小概率事件,它发生的难度比较大,所以有较大的信息量;大概率事件,它发生的难度比较小,所以有较小的信息量。【例】【注】期望就是加权和求出来的平均值,此处权值为概率KL散度以 Kullback 和Leibler的名字命名,也被称为相对嫡。原创 2023-09-30 10:09:20 · 209 阅读 · 0 评论 -
【李沐深度学习笔记】线性回归的简洁实现
使用框架的预定义好的层from torch import nn # nn是神经网络的缩写net = nn.Sequential(nn.Linear(3,1))# Sequential是神经网络一层,像list一样。原创 2023-09-27 19:16:11 · 129 阅读 · 0 评论 -
【李沐深度学习笔记】线性回归的从零开始实现
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。原创 2023-09-27 17:03:20 · 123 阅读 · 0 评论 -
【李沐深度学习笔记】基础优化方法
线性回归p2本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。在讲具体的线性回归实现之前,要先讲一下基础的优化模型的方法当模型没有显示解(最优解)的时候,用梯度下降法迭代到局部最优值(贪心原则);不断更新w0w_{0}w0使得其接近最优解,即wt→=wt−1→−η∂ℓ∂wt−1→\overrightarrow{w_{t}}= \overrightarrow{w_{t-1}}-\eta \frac{\partial \ell}{\partial \overr原创 2023-09-25 12:35:06 · 235 阅读 · 0 评论 -
【李沐深度学习笔记】线性回归
线性回归p1本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。其中,=[x1,x2,…,xi,…,xn]T,iii代表第iii个特征(即本例中的卧室个数,卫生间个数和居住面积),其实为了方便记录第jjj个样本的第iii个特征,我更倾向于这个写法:xj→=[xj1,xj2,…,xji,…,xjn]T\overrightarrow {{x}_{j}}=\left [ x_{j}^{1},x_{j}^{2},\dots ,x_{j}^{i} ,\dots ,原创 2023-09-25 11:18:08 · 154 阅读 · 0 评论 -
【李沐深度学习笔记】自动求导实现
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。原创 2023-09-23 11:57:40 · 145 阅读 · 0 评论 -
【李沐深度学习笔记】自动求导
自动求导p1本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。吸取上一次写文章的经验,这次公式部分尽量采用直接截图,不用lateX,用lateX有一些浪费时间假如还按照标量方程的链式求导法则求导,发现无法让最终结果通过矩阵乘法:分析下面简单的例子:最终,标量对向量的链式求导公式为:与标量方程的链式求导公式相比,仅仅是调换了顺序举个例子:【注】上一节有公式可以直接用,这里又用了分母布局(总是混用,有点难受),对其中的一些难点我做了点推导:原创 2023-09-23 09:45:20 · 180 阅读 · 0 评论 -
【李沐深度学习笔记】矩阵计算(5)
【提前注释一下】刚才提到的方向导数的公式为∂z∂l→fxx0y0cosαfyx0y0cosβfxx0y0fyx0y0⋅cosαcosβ这里写成了向量做内积的形式▽f⋅l0→。原创 2023-09-22 20:59:14 · 124 阅读 · 0 评论 -
【李沐深度学习笔记】矩阵计算(4)
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。本节是第四篇,由于CSDN限制,只能被迫拆分。原创 2023-09-22 20:56:36 · 162 阅读 · 0 评论 -
【李沐深度学习笔记】矩阵计算(3)
课程地址和说明线性代数实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。本节是第三篇,由于CSDN限制,只能被迫拆分矩阵计算矩阵的导数运算常用公式及其证明若x→=[x1x2⋮xm]\overrightarrow {x}=\begin{bmatrix}x_{1} \\x_{2} \\\vdots \\x_{m}\end{bmatrix}x=x1x2⋮xm,A=[a11a12⋯a1ma21a22⋯a2m⋮⋮⋱⋮am1am2⋯原创 2023-09-22 19:53:05 · 158 阅读 · 0 评论 -
【李沐深度学习笔记】矩阵计算(2)
课程地址和说明线性代数实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。本节是第二篇矩阵计算矩阵的导数运算此处参考了视频:矩阵的导数运算为了方便看出区别,我将所有的向量都不按印刷体加粗,而是按手写体在向量对应字母上加箭头的方式展现。标量方程对向量的导数在一元函数中,求一个函数的极值点,一般令导数为0(该点切线斜率为0),求得驻点,最后通过极值点定义或推论判断其是否为极值点,也就是如下过程:求多元函数极值的方法如下:(这个图中给的自变原创 2023-09-22 19:31:26 · 145 阅读 · 0 评论 -
【李沐深度学习笔记】矩阵计算(1)
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。本节是第一篇。原创 2023-09-22 18:05:02 · 145 阅读 · 0 评论 -
【李沐深度学习笔记】按特定轴求和
这节课就简单说明以下,axis为0是行,1是列,为0是每一列按行往下加和,为1就是每一行按列往下加和(SUM)因为构建这个三维数组的时候,第一个维度设定为2,所以axis=0对应的是第一个维度2,其他以此类推。本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。如果保留维度求和,就把要求和的那个维度设置为1,其他按照上面方法求和。按某个维度求和就把某个维度去掉后求和。恰好为一个4×2全为2的矩阵。符合2×4且元素都为5的矩阵。正如上图所示,是一个一维向量。原创 2023-09-21 20:43:30 · 112 阅读 · 0 评论 -
【李沐深度学习笔记】线性代数实现
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。这节就算之前内容的复习,后面以截图形式呈现。原创 2023-09-21 10:26:02 · 552 阅读 · 0 评论 -
【李沐深度学习笔记】线性代数
课程地址和说明数据预处理实现p3本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。线性代数标量标量(scalar),亦称“无向量”。有些物理量,只具有数值大小,而没有方向,部分有正负之分。物理学中,标量(或作纯量)指在坐标变换下保持不变的物理量。用通俗的说法,标量是只有大小,没有方向的量。(在深度学习领域也是如此)标量的运算规律加减法:c=a+bc=a+bc=a+b乘除法:c=a⋅bc=a\cdot bc=a⋅b取特定函数:c=sinac=sina原创 2023-09-19 17:00:48 · 679 阅读 · 0 评论 -
【李沐深度学习笔记】数据预处理实现
本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。原创 2023-09-16 22:45:39 · 300 阅读 · 0 评论 -
【李沐深度学习笔记】数据操作实现
通过广播机制,我们可以方便地对不同形状的张量进行元素级别的运算,而不需要手动调整张量的形状。当我们对两个形状不同的张量进行元素级别的运算时,广播机制会自动调整其中一个形状,使其与另一个张量的形状相匹配,从而使两个张量能够进行元素级别的运算。总之,PyTorch中的广播机制允许我们在处理不同形状的张量时,自动调整其形状,使其能够进行元素级别的运算,从而简化了张量操作的编写过程。这里解释一下,由于a的列数与b的行数相等,所以可以将a的列数扩展复制成b的列数,将b的行数扩展复制成a的行数。原创 2023-09-16 20:57:24 · 119 阅读 · 0 评论 -
【李沐深度学习笔记】数据操作
最后一个图是Python中跳跃访问元素的表示形式,::3指的是每隔3行跳一次访问,::2是每隔两列访问,最后两者叠加形成了第五个图。上面的两个图是分别用正态分布和均匀分布表示的数组。原创 2023-09-16 17:30:23 · 109 阅读 · 0 评论