pytorch函数

这篇笔记详细介绍了PyTorch中的一些重要函数,包括nn.CrossEntropyLoss()用于分类问题的损失计算,nn.Sequential()用于简单神经网络的构建,optim.SGD()作为优化器,optim.step()进行参数更新。此外,还涉及了模型的保存与加载,如torch.save()和torch.load(),以及state_dict()的使用。其他内容涵盖了张量操作,如unsqueeze(),以及数据预处理的transforms模块。
摘要由CSDN通过智能技术生成

笔记:

1.标签一般默认为LongTensor

2.pytorch只能处理2维的数据。

字典:

找到一份很好的pytorch中文文档:http://pytorch-cn.readthedocs.io/zh/latest/

1.nn.CrossEntropyLoss()
EXP:loss_func = torch.nn.CrossEntropyLoss()
交叉熵:通常用在分类问题上
目标标签为: y = [0, 0, 0, 1]
实际结果为: out = net(x) = [1,2,3,4]
将输出转发为概率:out = F.softmax(out)=[0.1, 0.2, 0.3, 0.4]
计算二者的误差: loss = loss_func(out, y)

2.nn.Sequential()
EXP:
net = torch.nn.Sequential(
torch.nn.Linear(2,10)
torch.nn.ReLu()
torch.nn.Linear(10,2)
)

一种简单的神经网络构建方式,直接按顺序垒神经层。

3.optim.SGD()
EXP:optimizer = torch.optim,SGD(net.parameters(),lr=0.1)

优化方法采用:随机梯度下降法(Stochastic Gradient Descent,简称SGD)

4.optim.step()
EXP:
los

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值