1 softmax回归原理

  1. 矢量加法可以提升速度,经可能多使用矢量加法而非循环
a = torch.zero(1000)
b= torch.zero(1000)
start = time()
d = a + b
print(time() - start)
  1. pytorch 基于numpy的广播机制

    a = torch.ones(3)
    b = 10
    print(a + b)
    # tensor([11., 11., 11.]
    
    
  2. 如果我们想要修改tensor的数值,但是又不希望被autograd记录(即不会影响反向传播),那么我么可以对tensor.data进行操作

线性回归的本质

它是一个单层的神经网络,基本要素包括模型、训练数据、损失函数和优化算法。

模型是一个y= ax1+bx2+c的一个函数式

训练数据可以是自己生成的随机数,本次的训练数据labels是在随机生成的features乘以目标参数的结果加上正态分布的噪点。

损失函数有平方损失函数和交叉熵函数,他们影响了优化算法。

优化算法用损失函数得出的损失算梯度,梯度运算是通过对mini-batch的梯度的平均值乘以学习率得到的。修正参数。

softmax回归的本质

不同与线性回归输出连续值且只能输出一个值,softmax回归可以输出多个离散值。值的个数等于标签数。

image-20210804145343504

image-20210804144059033

如处理分类问题时,一个简单的办法是将输出值o_i当作第i预测类别的置信度,并将值最大的输出所对应的类作为预测输出,例如,如果o1,o2,o3o_1,o_2,o_3o1,o2,o3分别为0.1,10,0.1 由于10最大,那么预测类别为2。

softmax运算符(softmax operator)会通过指数化每个值并归一化,使得所有的概率相加为1。

其损失函数使用交叉熵,因为我们在分类算法中不去考虑每个输出值到底是多少,我们只关心它们中最大的概率对应的样本是哪个。所以不适用过于严格的平方损失函数。交叉熵函数更适合衡量两个概率分布差异。

在对minist-fashion的分类实验中,使用的是相同的sgd优化函数。

分布差异。

在对minist-fashion的分类实验中,使用的是相同的sgd优化函数。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值