HDU_Ang
这个作者很懒,什么都没留下…
展开
-
7_常用代码
【代码】7_画图常用代码。原创 2023-11-22 19:40:49 · 68 阅读 · 1 评论 -
6_手算交叉熵
【代码】6_手算交叉熵。原创 2023-10-26 20:49:42 · 82 阅读 · 0 评论 -
5_torch.max的用法举例
重点看看最后一个函数。原创 2023-10-23 10:35:47 · 74 阅读 · 1 评论 -
4_使用预训练模型 微调训练CIFAR10
注意到VGG最后输出的out_features为1000,这是因为IMAGE NET是一个1000类的数据集,我们最后需要修改一下这个模型结构才能拿来做我们的特定任务。原创 2023-10-07 20:42:42 · 416 阅读 · 1 评论 -
3_使用传统CNN网络训练图像分类模型
使用下面这个CNN网络nn.ReLU(),nn.ReLU(),return out定义我们的网络我们介绍一下的用法,这个库可以辅助我们可视化CNN的计算过程并且在你的input_size出现问题时,给出提示我们当然也可以直接打印model查看,但显然直观效果不好CNN(# dataset# hyper# gpu# dataset使用下面这个CNN网络nn.ReLU(),nn.ReLU(),nn.ReLU(),nn.ReLU(),nn.ReLU(),return out。原创 2023-10-06 22:03:29 · 255 阅读 · 1 评论 -
2_dataset, dataloader
三通道(彩图)训练集:测试集 = 5w : 1w# shape 看维度, 后者有点特别,其类型就是普通的list因此直接求len# shape 看维度, 后者有点特别,其类型就是普通的list因此直接求len。原创 2023-10-06 16:46:24 · 524 阅读 · 1 评论 -
存档_cifar相关数据集使用方式
【代码】存档_cifar相关数据集使用方式。原创 2023-10-05 15:32:12 · 74 阅读 · 0 评论 -
1_torch的基础(Tensor)
当对两个形状不同的 Tensor 按元素运算时,可能会触发广播(broadcasting)机制:先适当复制元素使这两个 Tensor 形状相同后再按元素运算。生成全0/全1/随机等形式的Tensor,下列介绍几种常见的用法,其他花里胡哨的方法略看即可。(顾名思义,view()仅仅是改变了对这个张量的观察角度)共享内存(其实是同一个。注意view一样是新。原创 2023-09-13 20:32:08 · 56 阅读 · 1 评论