Pytorch(2)

1、梯度

梯度是个向量不是标量,偏微分是特殊导数,是标量。函数的梯度是一个向量,向量的方向代表函数在当前点的增长方向,向量的长度代表函数在当前点的增长的速率。

动量就相当于惯性,给定个动量,能够帮助冲出局部最小值,往更优解方向继续下降。

2、Pytorch中Relu用法,应用频率极高,优先使用,会减少sigmoid方法所带来的梯度离散和梯度爆炸情况。

Mean Squared Error:MSE均方差

Cross Entropy Loss:分类中间的误差,即可用于二分类,也可以用于多分类

 

 3、单一输出感知机和多输出感知机

 

loss.backward()反向传播,计算当前的梯度。该参数应和调用backward()函数的Tensor的维度相同,或者是可broadcast的维度。
默认同一个运算得到的Tensor仅能进行一次backward()。再次运算得到的Tesnor,可以再次进行backward()。

 4、logistic regression用的是Sigmoid函数方法

 5、熵和交叉熵

使用真实的概率分布P计算平均编码长度,实际编码长度基于期望的概率分布Q计算,这个计算结果就是P和Q的交叉熵。

 交叉熵 >= 熵

 交叉熵使用H(P,Q)表示,意味着使用P计算期望,使用Q计算编码长度;所以H(P,Q)并不一定等于H(Q,P),除了在P=Q(估计是完美)的情况下,H(P,Q) = H(Q,P) = H(P)。

 交叉熵用于分类问题。

 6、防止过拟合Early stopping(在快要出现过拟合的时候停止)和dropout(剪掉部分)

 7、下采样(max pooling和arg pooling)、上采样(.interpolate)

 上采样

 8、数据特征处理(先对数据特征进行处理,范围[0,1]之间,有助于提高求最优解的效率)

 

 应用Batch Normalization收敛的速度更快,更容易搜索到最优解,变得更稳定了,参数调整会方便。

 9、数据增强

Flip切分、Rotate旋转、Resize重新设置尺寸、Random Crop随机裁剪

Noise

10、Auto-Encoders

 11、GAN原理

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值