softmax

文章介绍了softmax函数在转换向量为概率分布中的应用,特别是在CLIP模型中用于图像和文本相似度的表示。同时,提到了余弦相似度作为另一种计算向量相似度的方法。此外,对比损失和交叉熵损失在模型训练中的作用也被讨论,前者用于无监督学习中的对比学习,后者常用于监督学习中的分类问题。
摘要由CSDN通过智能技术生成

softmax函数的公式如下:

s o f t m a x ( z i ) = e z i / T ∑ j = 1 K e z j / T softmax(z_i) = \frac{e^{z_i/T}}{\sum\limits_{j=1}^K e^{z_j/T}} softmax(zi)=j=1Kezj/Tezi/T

其中, z i z_i zi 是输入向量的第 i i i 个元素, T T T 是温度参数, K K K 是向量的长度。 s o f t m a x ( z i ) softmax(z_i) softmax(zi) 表示将向量 z z z 转化为概率分布的第 i i i 个元素的概率,其中 i ∈ [ 1 , K ] i \in [1, K] i[1,K]。在CLIP中,我们可以将 z i z_i zi 理解为图像和文本之间的相似度, T T T 的值是由网络学习得到的,用于调整相似度的度量。

用于计算相似度的余弦相似度公式:
x ⋅ y ∣ x ∣ × ∣ y ∣ \frac{x\cdot y}{|x| \times |y|} x×yxy

其中, x x x y y y 分别表示两个向量, ⋅ \cdot 表示向量的点积, ∣ x ∣ |x| x ∣ y ∣ |y| y 表示向量的模长。

用于计算 softmax 函数的公式:
s o f t m a x ( z i ) = e z i / T ∑ j = 1 K e z j / T softmax(z_i) = \frac{e^{z_i/T}}{\sum\limits_{j=1}^K e^{z_j/T}} softmax(zi)=j=1Kezj/Tezi/T

其中, z i z_i zi 是输入向量的第 i i i 个元素, T T T 是温度参数, K K K 是向量的长度。

用于计算对比损失的公式:
L contrastive ( v , u , τ ) = − log ⁡ e v ⋅ u τ ∑ j e v ⋅ u j τ \mathcal{L}_{\text{contrastive}}(v, u, \tau) = -\log\frac{e^{\frac{v\cdot u}{\tau}}}{\sum_j e^{\frac{v\cdot u_j}{\tau}}} Lcontrastive(v,u,τ)=logjeτvujeτvu

其中, v v v u u u 分别表示图像和文本的嵌入向量, u j u_j uj 是负样本的文本向量, τ \tau τ 是温度参数。

用于计算交叉熵损失的公式:
L cross-entropy ( y , p ) = − ∑ i y i log ⁡ p i \mathcal{L}_{\text{cross-entropy}}(y, p) = -\sum_i y_i \log p_i Lcross-entropy(y,p)=iyilogpi

其中, y y y 是真实标签的向量, p p p 是模型预测的概率分布向量。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UCAS_V

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值