《从深度学习基础到车道线模型训练与部署》学习(四)

pytorch_resnet18_unet.ipynb学习笔记

0.Unet图像分割

Unet图像分割 - 简书Unet网络是一种图像语义分割网络,图像语义分割网络让计算机根据图像的语义来进行分割,例如让计算机在输入下面下图,能够输出指定分割的图片。 原图中,物体被分为三类,1.背景,...https://www.jianshu.com/p/b091921d5c46?ivk_sa=1024320u

1.  Python,axis=0与axis=1区分

Python之NumPy(axis=0 与axis=1)区分 - caiqingfei - 博客园转自:http://blog.csdn.net/wangying19911991/article/details/73928172 https://www.zhihu.com/question/589https://www.cnblogs.com/rrttp/p/8028421.html

2. Python函数中的*和**的作用

Python函数中*和**的内涵究竟是什么呢? - 知乎之前读博时C/C++用得比较多目前在自动驾驶部门机器学习组用Python自学Python的过程中遇到一些经典案例想…https://www.zhihu.com/question/265519629/answer/509771174

3.Python 中reduce()与lambda函数详解

from functools import reduce
def plot_side_by_side(img_arrays):
    flatten_list = reduce(lambda x,y: x+y, zip(*img_arrays))

    plot_img_array(np.array(flatten_list), ncol=len(img_arrays))

Python 中reduce()与lambda函数详解_Devinxtw的博客-CSDN博客a = [2,22,222]Sn = reduce(lambda x,y:x+y,a)print "计算和为:",Snreduce()函数会对参数序列中元素进行累积。函数将一个数据集合(链表,元组等)中的所有数据进行下列操作:用传给 reduce 中的函数 function(有两个参数)先对集合中的第 1、2 个元素进行操作,得到的结果再与第三个数据用 function ...https://blog.csdn.net/qq_40688707/article/details/88862842

4.iter函数和next函数

iter函数和next函数 | Python笔记icon-default.png?t=LBL2https://www.pynote.net/archives/1258Python中next()函数、iter()以及next(iter())函数的用法详解_Yale-曼陀罗-CSDN博客_next(iter(train_loader))描述:next() 返回迭代器的下一个项目。next() 函数要和生成迭代器的iter() 函数一起使用。 语法:next 语法:next(iterable[, default]) 参数说明:iterable – 可迭代对象default – 可选,用于设置在没有下一个元素时返回该默认值,如果不设置,又没有下一个元素则会触发 StopIteration 异常。 备注:list、tuple等都是可迭代对象,我们可以通过iter()函数获取这些可迭代对象的迭代器。然后,我们可以对获.https://blog.csdn.net/weixin_42782150/article/details/109315355

5.base_model.children()

torch.nn.Module.children()_敲代码的小风-CSDN博客链接: link.https://blog.csdn.net/m0_46653437/article/details/112647877

6.模型可视化工具summary

【PyTorch】模型可视化之 pytorch-summary_北境の守望者-CSDN博客_pytorch summaryBackto PyTorch Index我个人最喜欢的模型可视化工具, github安装 pip install torchsummary应用from torchsummary import summary...summary(your_model, input_size=(channels, H, W))info 分析每一层的类型、shape 和 参数量模型整体的...https://blog.csdn.net/baishuo8/article/details/90640110

7.nn.ReLU(inplace=True)中inplace的作用

nn.ReLU(inplace=True)中inplace的作用 - 慢行厚积 - 博客园在文档中解释是: 意思是是否将得到的值计算得到的值覆盖之前的值,比如: 即对原值进行操作,然后将得到的值又直接复制到该值中 而不是覆盖运算的例子如: 这样就需要花费内存去多存储一个变量y 所以 的意思https://www.cnblogs.com/wanghui-garcia/p/10642665.html

8. nn.Sequential(*self.base_layers[:3])

【python】*号用法 如nn.Sequential(*layers)_小西几y的博客-CSDN博客_python sequential形参——单个星号代表这个位置接收任意多个非关键字参数,转化成元组方式。实参——如果*号加在了是实参上,代表的是将输入迭代器拆成一个个元素。从nn.Sequential的定义来看,输入要么是orderdict,要么是一系列的模型,遇到list,必须用*号进行转化,否则会报错 TypeError: list is not a Module subclass# Example of using ...https://blog.csdn.net/qq_41748260/article/details/104346179pytorch中的nn.Sequential(*net[3: 5])是啥意思_alittlebai1的博客-CSDN博客看到代码里面有这个1 class ResNeXt101(nn.Module): 2 def __init__(self): 3 super(ResNeXt101, self).__init__() 4 net = resnext101() # print(os.getcwd(), net) 5 net = list(net.children()) # net.children()得到resneXt 的表层网络 #https://blog.csdn.net/alittlebai1/article/details/116105471

9.Pytorch 中的 dim

Pytorch 中的 dimPytorch中对tensor的很多操作如sum、argmax、unsqueeze等都可以设置dim参数用来指定操作在哪一维进行。Pytorch中的dim类似于numpy中的axis,这篇文章来总结一下Pytorch中的dim操作。dim与方括号的关系创建一个矩阵a=torch.tensor([[1,2],[3,4]])print(a)https://www.icode9.com/content-4-376157.html

10.python中copy()和deepcopy()

python中copy()和deepcopy()详解_IT荻的博客-CSDN博客_copy.deepcopy参考文章 http://iaman.actor/blog/2016/04/17/copy-in-python **首先直接上结论: —–我们寻常意义的复制就是深复制,即将被复制对象完全再复制一遍作为独立的新个体单独存在。所以改变原有被复制对象不会对已经复制出来的新对象产生影响。 —–而浅复制并不会产生一个独立的对象单独存在,他只是将原有的数据块打上一个新标签,所以当其中一个标签被...https://blog.csdn.net/u010712012/article/details/79754132

11.optimizer.step()和scheduler.step()的区别

pytorch学习笔记(1)-optimizer.step()和scheduler.step()_攻城狮的自我修养-CSDN博客_scheduler.step()optimizer.step()和scheduler.step()的区别optimizer.step()通常用在每个mini-batch之中,而scheduler.step()通常用在epoch里面,但是不绝对,可以根据具体的需求来做。只有用了optimizer.step(),模型才会更新,而scheduler.step()是对lr进行调整。通常我们有optimizer = optim.SGD...https://blog.csdn.net/qq_20622615/article/details/83150963

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值