pytorch
Rondox
会日语英语中文 喜欢打代码 深度学习
展开
-
7.2. 使用块的网络(VGG)
首先:conv_arch = ((1, 64), (1, 128), (2, 256), (2, 512), (2, 512)) 多个元组做参数。0位置:遍历次数n,1位置:输出通道数。第一组(1,64)时,原创 2023-03-08 21:28:33 · 119 阅读 · 0 评论 -
4.6. 暂退法(Dropout)
中,删除了h2和h5, 因此输出的计算不再依赖于h2或h5,并且它们各自的梯度在执行反向传播时也会消失。这样,输出层的计算不能。,h5的任何一个元素。原创 2023-03-08 15:31:17 · 148 阅读 · 0 评论 -
Alext d2l 手稿
【代码】Alext d2l 手稿。原创 2023-03-08 14:59:57 · 52 阅读 · 0 评论 -
经典模型LeNet跑Fashion-MNIST 代码解析
再接着跑epoch的时候调试爆了 不知道是因为cpu还是内存不够爆的 重新取消了其他断点,只点了一个。打点调试 查看卷积核的值学习过程 #net[0].weight net[3].weight。可以看出梯度更新卷积核的参数第一行第一个一看好像没变,看看第二行1198->1197 是变了。成功初始化为均值0 方差1的卷积核了。初始创建net的时候自动生成全部数据。重新的一个数据 与上面的不一样。初始化的时候init再打点。训练函数 train。初始化跳回去之后发现。原创 2023-03-06 14:34:15 · 864 阅读 · 1 评论