pytorch学习笔记三:torch.nn下常见的几个损失函数详解

本文详细介绍了PyTorch中的几种常见损失函数,包括L1Loss、MSELoss、交叉熵损失(CrossEntropyLoss)、二进制交叉熵损失(BCELoss)和BCEWithLogitsLoss。讨论了损失函数中关键参数的作用,并通过实例展示了如何使用这些函数以及它们的计算结果。
摘要由CSDN通过智能技术生成

       在盘点常见损失函数之前,有必要先说一下在很多的损失函数中都出现的三个参数,也即size_average,reduce以及reduction,并且它们三个之间还存在一定的关系。

  • size_averagebool类型;默认情况下,如果只有一个batch,每个batch有多个元素,那么误差计算结果是这个batch中多个元素的平均值;如果是有多个batch,然后每个batch有多个元素,那么误差计算的结果是将每个batch的平均值放到一块再求多个batch的平均值;如果把这个参数设置为False,那么只需要将计算平均值换成计算和即可,其他完全一样;默认该参数值为True;但是如果 reduce参数被指定为False,那么这个参数将被忽略,也即不起作用。

  • reducebool类型;默认情况下,计算结果的形式会由size_average来决定,要么是求平均值,要么是求和,也即返回的是标量;但是如果 reduce参数被设置成False,那么既不求平均,也不求和,而是把每个batc

  • 5
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论
torch.nn.LeakyReLU是PyTorch中的一个激活函数,用于在神经网络中引入非线性。它与ReLU函数类似,但在输入为负数时具有一个小的斜率,以避免死亡神经元的问题。LeakyReLU函数的参数包括negative_slope和inplace。negative_slope控制负斜率的角度,默认值为0.01。inplace参数用于选择是否就地执行操作,默认值为False。 下面是一个使用LeakyReLU函数的例子: ```python import torch.nn as nn import torch LeakyReLU = nn.LeakyReLU(negative_slope=0.1) x = torch.randn(2) output = LeakyReLU(x) print(x) print(output) ``` 在这个例子中,我们先创建了一个LeakyReLU函数,然后将输入x应用于该函数,输出结果为output。可以看到,LeakyReLU函数会将负数部分乘以一个小的斜率,而正数部分则保持不变。 更多关于torch.nn.LeakyReLU的详细信息可以在PyTorch的官方文档中找到。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [PyTorch学习笔记nn.LeakyReLU——LeakyReLU激活函数](https://blog.csdn.net/qq_50001789/article/details/128973901)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [【Pytorchtorch.nn.LeakyReLU()](https://blog.csdn.net/weixin_44225182/article/details/126655246)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

耐心的小黑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值