DataWhale——《深入浅出Pytorch》2

本文介绍了PyTorch中的损失函数,包括官方API提供的各种损失函数和自定义损失函数的实现方式。接着讨论了学习率的重要性,列举了PyTorch中的学习率调度器,并提出自定义学习率变化策略。此外,文章还探讨了模型调整,如迁移学习和预训练模型的应用,以及半精度训练在减少计算负担和优化模型计算上的作用。
摘要由CSDN通过智能技术生成


一、损失函数(Loss Function)

在官方的API中提供了许许多多的损失函数,用来优化模型的表现,比如说有
PyTorch在torch.nn模块为我们提供了许多常用的损失函数,比如:MSELoss,L1Loss,BCELoss… ,但是随着深度学习的发展,官方不可能将所有的损失函数进行封装,因此官方给出这样的一条路径就是,可以进行自定义的loss函数封装,通过学习后,我发现可以有以下几种方式进行去实现loss函数的定义

  • 以函数方式定义
def my_loss(output, target):
    loss = torch.mean((output - target)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值