PyTorch基础
文章平均质量分 75
糖糖Amor
这个作者很懒,什么都没留下…
展开
-
PyTorch——激活函数、损失函数
PyTorch——激活函数激活函数Loss及其梯度全连接层交叉熵激活函数与GPU加速 激活函数 torch.sigmoid:范围在[0,1],光滑可导,但在趋近0和1时容易出现梯度离散。 torch.tanh:范围在[-1,1] torch.relu/F.relu:不可导,但计算简单常用 F.softmax Loss及其梯度 MSE: autograd.grad loss.backward Gradient API F.softmax 全连接层 nn.layer 类方法: step 1:原创 2021-02-08 12:31:39 · 261 阅读 · 0 评论 -
PyTorch——基础
PyTorch——基础基础数据类型创建Tensor索引和切片 基础 数据类型 Type: PS:GPU里的cuda类型与CPU里的不同,可以转换 Dimension 0:常用于Loss Dimension 1:常用于bias Dimension 2:常用于线性输入batch Dimension 3:用于循环神经网络RNN输入 Dimension 4:用于卷积神经网络CNN输入[b, c, h, w] Mixed:a.numel() 输入所有元素个数,内存大小 创建Tensor Import原创 2021-02-06 19:14:16 · 372 阅读 · 0 评论