torch.nn库

在这里插入图片描述

Parameter在这里插入图片描述

ParameterList列表格式 ParameterDict字典格式在这里插入图片描述

Linear conv2d ReLU MaxPool2d MSELoss

在这里插入图片描述

CrossEntropyLoss 交叉熵损失一般用于分类问题

在这里插入图片描述
具体讲解以二分类为例: 如果要预测的真实值为1,即y=1,带入Loss 则后边一项即(l-y)…为零
而前一项变成 l o g ( y ^ ) log(\hat y) log(y^)则根据log曲线,只有当 y ^ \hat y y^越接近1的时候 Loss才会最小为0,这时的预测值和真实值正好相等所以才使用交叉熵

x = torch.randn(10, 5)
y= torch.randint(0, 5, (10,))
weights = torch.tensor([1., 2., 3., 4., 5.])

criterion_good = nn.CrossEntropyLoss(weight=weights)
# criterion_good = nn.CrossEntropyLoss(weight=weights, reduction='mean') # 默认形式
loss_good = criterion_good(x, y)
print('loss_good\n', loss_good)
print('loss_good\n', loss_good.dtype)
# reduction='none'其实也就是说对返回的结果不做处理
# reduction='mean' 也就是将返回的结果直接处理成了均值的形式
criterion = nn.CrossEntropyLoss(weight=weights, reduction='none')
loss = criterion(x, y)
loss = loss.sum() / weights[y].sum()
print('loss\n', loss)
print('loss\n', loss.dtype)
print(loss == loss_good)  # 注意同时多执行几次是会出现FALSE的,但是之前的输出是一样的,具体原因待查

在这里插入图片描述

MSE-LOSS 均方损失 一般用于回归问题

在这里插入图片描述

functional在这里插入图片描述

在这里插入图片描述

F.pad填充图像的用法

    c, h, w = img.shape
    dim_diff = np.abs(h - w)
    # (upper / left) padding and (lower / right) padding
    pad1, pad2 = dim_diff // 2, dim_diff - dim_diff // 2
    # Determine padding
    pad = (0, 0, pad1, pad2) if h <= w else (pad1, pad2, 0, 0)
    # Add padding
    # img是一个tensor对象,pad要填充的格式,constant就是填充的值是个常量,值为value
    # 本例填充出来的是一个长和宽相等的一个图像
    img = F.pad(img, pad, "constant", value=pad_value)

运行结果:

在这里插入图片描述

Sequential

在这里插入图片描述

ModuleList

在这里插入图片描述

ModuleDict

Module

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

init中包括各种初始化函数

  • xavier_uniform_使用均匀分布初始化w

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值