李沐深度学习
文章平均质量分 59
李沐深度学习笔记
裂缘冰释
这个作者很懒,什么都没留下…
展开
-
07自动求导(李沐深度学习笔记)
这里求导可以参看上一节这张图,∂<x,w>∂w=xT∂w∂w+wT∂x∂w=xT∂w∂w=xT\frac {\partial <x,w>}{\partial w}=x^T\frac{\partial w}{\partial w}+w^T\frac{\partial x}{\partial w}=x^T\frac{\partial w}{\partial w}=x^T∂w∂<x,w>=xT∂w∂w+wT∂w∂x=xT∂w∂w=xT,因为∂w∂w=1\frac{...原创 2022-02-25 21:36:00 · 874 阅读 · 0 评论 -
06矩阵计算(李沐深度学习笔记)
QA 能否得到最优解而非局部最优解? 数学上可以,但是机器学习计算上不行,只有凸函数才能得到最优解,而机器学习基本不会处理凸函数,如果能得到最优解,就是P的问题,机器学习关心的是NP的问题 ...原创 2021-09-22 22:04:33 · 140 阅读 · 0 评论 -
05线性代数(李沐深度学习笔记)
[TOP] 线性代数 直观理解 矩阵乘法相当于扭曲空间,向量通过一个矩阵相乘变成另外一个向量,相当于矩阵把一个空间进行了扭曲 矩阵也有长度,即范数 c和b是向量。F范数相当于把矩阵拉成一个向量求范数,由于F范数比较简单,所以一般会用F范数 在数学上,特别是在矩阵理论中,置换矩阵是一个方形二进制矩阵,它在每行和每列中只有一个1,而在其他地方则为0。 设P是一个m×n的 (0,1) 矩阵,如果 m≤n且 PP′=E,则称 P为一个 m×n的置换矩阵。其中P′是P的转置矩阵,E是m阶单位方原创 2021-09-22 22:03:40 · 588 阅读 · 0 评论 -
04数据操作+数据预处理(李沐深度学习笔记)
数据操作 首先,我们导入torch。请注意,虽然它被称为Pytorch,但我们应该导入torch而不是 Pytorch。 张量表示一个数值组成的数组,这个数组可能有多个维度。 我们可以通过张量的shape属性来访间问张量的形状和张量中元素的总数 通过shape可以查看张量的形状(维度),numel()(即number of elements的缩写)可以查看张量有多少元素 要改变一个张量的形状而不改变元素数量和元素值,我们可以调用 reshape函数。 使用全0、全1、其他常量或者从特定分布中随机采原创 2021-09-06 21:50:12 · 541 阅读 · 0 评论