逐行讲解Transformer的代码实现和原理讲解:计算交叉熵损失

LLM模型:Transformer代码实现和原理讲解:前馈神经网络_哔哩哔哩_bilibili

1 计算交叉熵目的

计算 loss = F.cross_entropy(input=linear_predictions_reshaped, target=targets_reshaped) 的目的是为了评估模型预测结果与实际标签之间的差距,并提供一个量化指标,用于指导模型的训练过程。具体来说,交叉熵损失函数(Cross Entropy Loss)在多分类问题中非常常用,因为它能够有效地衡量模型预测的概率分布与真实标签之间的差异。

交叉熵损失的目的:

  1. 评估模型性能

    • 交叉熵损失给出了一种度量模型预测结果与真实标签之间差异的方法。较低的损失值意味着模型的预测更加接近真实标签,较高的损失值则意味着模型的预测误差较大。
  2. 梯度下降优化

    • 在训练过程中,交叉熵损失提供了关于模型参数调整方向的梯度信息。通过反向传播算法,这些梯度被用来更新模型的权重,以最小化损失函数。

为什么需要重塑张量:

在处理序列数据时,例如在自然语言处理任务中,通常会遇到多个样本(Batch Size),每个样本又包含多个时间步(Sequence Length)。因此,原始的预测张量和标签张量可能会有三个维度:

  • linear_predictions 的形状可能是 (batch_size, sequence_length, number_of_classes)
  • target_label 的形状可能是 (batch_size, sequence_length) 或者 (batch_size, sequence_length, 1)

为了能够使用标准的交叉熵损失函数,需要将这些张量重新塑形为二维形式:

  • linear_predictions_reshaped 的形状变为 (batch_size * sequence_length, number_of_classes)
  • targets_reshaped 的形状变为 (batch_size * sequence_length)

这样做的好处是:

  • 简化损失计算:将所有的时间步和所有批次的数据展平为一个长的序列,可以一次性计算整个批次和序列的损失,而不是单独计算每个时间步的损失。
  • 统一输入格式:交叉熵损失函数通常期望输入是一个二维张量,其中第一维表示样本数,第二维表示类别数。通过重塑张量,我们可以满足这一要求。

总结:

通过计算交叉熵损失并传入重塑后的张量,我们能够得到一个能够反映整个批次和序列预测准确性的单一损失值。这个损失值会被用于模型的训练过程,通过反向传播算法更新模型参数,从而提高模型对未来数据的预测能力。

2 变换后的形状

为了将计算结果与样本标签转成同一形状,好计算交叉熵损失

3 常见损失函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值