PyTorch自用笔记(第三周-进阶篇)

五、进阶操作

5.1 合并与分割

cat-合并

在这里插入图片描述

stack-创建新维度

在这里插入图片描述
注:原shape必须一样

split-by len

参数是长度
在这里插入图片描述

chunk-by num

参数是数量
在这里插入图片描述

5.2 数学运算

basic- + - * /

在这里插入图片描述

matmul-矩阵相乘

torch.mm:只适用2d矩阵,不推荐适用
在这里插入图片描述
2维以上的矩阵相乘时
在这里插入图片描述

power-幂次运算

在这里插入图片描述

log exp

在这里插入图片描述

approximation-求近似

在这里插入图片描述

clamp-裁剪

在这里插入图片描述

5.3 属性统计

norm-范数

在这里插入图片描述

min;max;mean;prod-最小;最大;均值;累乘

在这里插入图片描述
在这里插入图片描述
注:参数表示返回某一维度上的最大或最小值

dim;keepdim

在这里插入图片描述

topk-前k个

在这里插入图片描述

kthvalue-第k小的值

在这里插入图片描述

compare

在这里插入图片描述

5.4 高阶操作

where

在这里插入图片描述

gather

torch.gather(input, dim, index, out=None)->Tensor
在这里插入图片描述

六、随机梯度下降

6.1 梯度

导数derivate:标量
偏微分partial derivate:多元;标量
梯度gradient:偏微分的向量
梯度下降法可参考机器学习-吴恩达(第一周)
鞍点:在某一点取得一个维度的局部极大值而在另一维度取得局部极小值

影响优化器的因素:
1.局部极小值
2.鞍点
3.初始状态
4.学习率
5.动量-逃离局部最小值

6.2 常见函数的梯度

导数表:
在这里插入图片描述

6.3 激活函数及其梯度

激活函数可参考李飞飞计算机视觉-自用笔记(第二周)

sigmoid

在这里插入图片描述

tanh

tanh(x) = 2sigmoid(2x) - 1
在这里插入图片描述

ReLU

在这里插入图片描述

6.4 loss及其梯度

mean squared error:均方差

在这里插入图片描述

梯度:

在这里插入图片描述
求梯度:
在这里插入图片描述

loss.backward

在这里插入图片描述

softmax

在这里插入图片描述
注:除了可以得到概率结果这个属性外,还起到空间放缩的作用
导数:
在这里插入图片描述
代码实现:
在这里插入图片描述

6.5 感知机

对于xli:l表示层编号,i表示节点编号
对于wlij:l表示层编号,i表示上一层节点编号,j表示本层节点编号
求导:
在这里插入图片描述
单层感知机梯度推导代码实现:
在这里插入图片描述
多层感知机
在这里插入图片描述
代码实现:
在这里插入图片描述

6.6 反向传播算法

可参考机器学习-吴恩达(第三周)李飞飞计算机视觉-自用笔记(第二周)

6.7 2D函数优化实例

f(x, y) = (x2 + y -11)2 + (x + y2 - 7)2
此函数的图像及极小值点:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值