复习笔记
文章平均质量分 72
Dawn向阳而生
这个作者很懒,什么都没留下…
展开
-
libtorch-resnet18
与大家分享一下自己在学习使用libtorch搭建神经网络时学到的一些心得和例子,记录下来供大家参考首先我们要参考着pytorch版的resnet来搭建,这样我们可以省去不必要的麻烦,上代码:1、首先是pytorch版残差模块class ResidualBlock(nn.Module): def __init__(self, inchannel, outchannel, stride=1, shortcut=None): super(ResidualBlock, self).__原创 2022-01-05 15:16:52 · 1803 阅读 · 0 评论 -
pytorch-resnet34残差网络理解
工欲善其事必先利其器,在使用该网络之前要先了解该网络的具体细节,我今天也是第一次查资料,然后加上自己的理解去写这篇学习成长文章。残差模块class ResidualBlock(nn.Module): def __init__(self, inchannel, outchannel, stride=1, dowansample=None): super(ResidualBlock, self).__init__() self.left = nn.Sequential原创 2021-12-20 11:40:27 · 3201 阅读 · 0 评论 -
pytorch复习与总结
今天来复习pytorch的数据读取机制torch.utils.data.DataLoader();构建可迭代的数据装载器,每一个for 循环,每一个iteration,都是从DataLoader中获取一个Batch_size大小的数据。有没有好奇过,就加载这几个类,然后就可以把数据读取,而且还能以批量的形式加载,这是怎样的一个过程呢?今天我们就来慢慢的深入学习,学到哪是哪。其中DataLoader大概有几个重要的参数,分别为:1、dataset:属于DataSet类,决定数据从哪读取,怎么读取。原创 2021-09-20 21:53:52 · 752 阅读 · 1 评论 -
pytorch复习总结与例子2
写在前面:学习pytorch也有一段时间了,一直都是在网上看别人的代码然后自己再敲一遍,把不理解的地方查找一下资料,但是总感觉缺点是什么,仔细思考一下整个过程,有点类似背代码的意思,这是非常要命的一点,所以今天就索性把这个在从头一点一点的利用晚上的时间再复习一边.今天我们复习的是计算图与动态机制深度学习一直在操控的是各种张量,少量的张量我们可以处理,但是随着网络的加深,各种参数的增多,张量的增多,会导致各种各样的问题产生,那么我们应该怎么处理这个现象呢?这时候便有了计算图的产生,那么什么又是计算图呢,原创 2021-09-17 20:23:18 · 127 阅读 · 0 评论 -
pytorch-复习与例子
写在前面:学习pytorch也有一段时间了,一直都是在网上看别人的代码然后自己再敲一遍,把不理解的地方查找一下资料,但是总感觉缺点是什么,仔细思考一下整个过程,有点类似背代码的意思,这是非常要命的一点,所以今天就索性把这个在从头一点一点的利用晚上的时间再复习一边,我们先来创建一个简单的线性回归方程,y=wx+b,这是一个一元一次方程,有点基础就知道,,神经网络是一个求参数的过程,通过不断的寻找最优解,不断的寻找参数。我们要知道这个网络创建的一个过程,首先应该是干什么,我们的任务是什么,y=wx+b中原创 2021-09-16 21:32:38 · 107 阅读 · 0 评论