学习李沐【动手学深度学习】
该部分主要是展现我在学习过程中对于一些我难以理解的地方的解答,方便后来我进行查看。
王阿虎丶
这个作者很懒,什么都没留下…
展开
-
关于李沐【动手学深度学习】目标检测中catdog图片找不到
./img /catdog.jpg会报错,这是因为我没有下载这张图,然后找了找资源。原创 2023-03-30 19:55:51 · 1644 阅读 · 0 评论 -
关于李沐【动手学深度学习】nn.Linear()的理解
后来查阅相关资料发现是nn.Linear()函数的问题,给该函数出入的参数实际上是生成了一个W权重矩阵,其中参数分别是W的行数和列数,也就是说第一种实现中已经给了一个初始化了,只不过是Linear自动进行了,第二种我觉得是对W的重新初始化。这两部分都是对整个感知机进行代码实现,不同的是我在第二部分看到了对于权重的初始化也就是init_weights()函数,但是我在第一种实现中并没有发现有关W的东西。原创 2023-03-15 10:58:24 · 382 阅读 · 0 评论 -
关于李沐【动手学深度学习】reshape()用法的理解
也就是,当行是-1的时候他表示行有多少我不知道,如果是(-1),他表示成为一个一维向量,一行。如果是(1, -1)他表示成为二维矩阵,有一行,列不知道多少。如果是(-1,2)他表示成为二维矩阵,有2列但行不知道有多少。原创 2023-03-07 16:03:31 · 568 阅读 · 0 评论 -
关于李沐【动手学深度学习】多层感知机输入X,权重W,输出O之间的过程理解
这是由于感知机给出的是一个线性分割,单纯一个感知机的线性分割具有很大局限性,类似XOR函数的问题就不能进行分类,这样通过多个简单感知机的值进行堆叠就能够对XOR问题进行解决。我们知道共有m个h,W是m * n的矩阵,W1x就能得到m个h的值,并且每个h都是通过输入数据x1-xn与各个h对应的x1-xn的权重的和,正好得到m个h。其次是W1,是一个m * n的权重矩阵,m实际上指的是我们的隐藏层共有m个节点,也就是上图中h的个数(m=5),n列指的是x的输入个数。W2是输出层的权重,m * 1的列向量。原创 2023-03-06 19:02:20 · 278 阅读 · 0 评论 -
关于李沐【动手学深度学习】softmax中X样本与W权重矩阵之间的理解
李沐实现softmax回归代码中,对于样本集X和权重集合W的一些自我理解原创 2023-03-04 16:45:14 · 429 阅读 · 1 评论