- 博客(5)
- 收藏
- 关注
原创 Pytorch apply函数
apply 函数是nn.Module 中实现的, 递归地调用self.children() 去处理自己以及子模块我们知道pytorch的任何网络net,都是torch.nn.Module的子类,都算是module, 也就是模块。pytorch中的model.apply(fn)会递归地将函数fn应用到父模块的每个子模块submodule,也包括model这个父模块自身。经常用于初始化init_weights的操作from torch import nn@torch.no_grad()def ini
2022-05-30 19:54:34 456
原创 PyTorch 深度学习实践 第5讲(用PyTorch实现线性回归 )
本实例是批量数据处理,小伙伴们不要被optimizer = torch.optim.SGD(model.parameters(), lr = 0.01)误导了,以为见了SGD就是随机梯度下降。要看传进来的数据是单个的还是批量的。这里的x_data是3个数据,是一个batch,调用的PyTorch API是 torch.optim.SGD,但这里的SGD不是随机梯度下降,而是批量梯度下降。也就是说,梯度下降算法使用的是随机梯度下降,还是批量梯度下降,还是mini-batch梯度下降,用的API都是 torc.
2022-05-06 21:05:49 718
原创 继承于torch.nn.Module的LinearModel是怎样执行线性运算的
class LinearModel(torch.nn.Module): def __init__(self): super(LinearModel, self).__init__()## 父类 self.linear = torch.nn.Linear(1, 1)##构造一个对象,包含Weight(参数w) 和 Bias(参数b) ,之后就可以直接用Linear计算Wx+b def forward(self, x):##这里主要考虑的override,覆盖父类
2022-04-22 21:30:21 566
原创 torch.nn.Linear进行线性运算的流程
m = torch.nn.Linear(2, 4)m.weight#Out[2]: #Parameter containing:#tensor([[-0.6660, 0.1373],# [ 0.2986, 0.4758],# [-0.2398, 0.2945],# [-0.1975, 0.6900]], requires_grad=True)m.weight.shape#Out[21]: torch.Size([4, 2])m.bias
2021-12-23 13:50:53 1359
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人