【深度学习】transformer中softmax为什么要scaled

论文中解释是:向量的点积结果会很大,将softmax函数push到梯度很小的区域,scaled会缓解这种现象。怎么理解将sotfmax函数push到梯度很小区域?还有为什么scaled是维度的根号,不是其他的数?

答案:q,k向量点积后的结果数量级变大,经历过softmax函数的归一化之后,后续反向传播的过程中梯度会很小,造成梯度消失。进行scaled能够缓解这种情况。

Multi-head Attention为什么要做scaled - 卷王李狗蛋的文章 - 知乎

目录

为什么会梯度消失的原因?

在self-attention中为什么要除以?

为什么要假设为均值为0,方差为1?

为什么在其他 softmax 的应用场景,不需要做 scaled?

为什么在分类层(最后一层),使用非 scaled 的 softmax?

注意力机制的softmax溢出怎么解决?


为什么会梯度消失的原因?

数量级对softmax得到的分布影响非常大。在数量级较大时,softmax将几乎全部的概率分布都分配给了最大值对应的标签。

点积后的结果数量级大会导致反向传播梯度变小。造成梯度消失,参数更新困难。

当输入g(x)函数的logits的数量级很大时,g(x)输出的是一个非常接近one-hot的向量[0,0,...1,...0,0]。

在self-attention中为什么要除以\sqrt{d_k}

方差越大也就说明,点积的数量级越大(以越大的概率取大值)。那么一个自然的做法就是把方差稳定到1,做法是将点积除以\sqrt{d_k}将方差控制为1,也就有效地控制了前面提到的梯度消失的问题

为什么要假设为均值为0,方差为1?

浅谈Transformer的初始化、参数化与标准化 - 科学空间|Scientific Spaces

在一般的教程中,推导初始化方法的思想是尽量让输入输出具有同样的均值和方差,通常会假设输入是均值为0、方差为1的随机向量,然后试图让输出的均值为0、方差为1。

初始化自然是随机采样的的,所以这里先介绍一下常用的采样分布。一般情况下,我们都是从指定均值和方差的随机分布中进行采样来初始化。其中常用的随机分布有三个:正态分布(Normal)、均匀分布(Uniform)和截尾正态分布(Truncated Normal)。

核心是让输入输出具有同样的均值和方差,保持相同的数据分布。挑正态分布可能因为常见,均值为0、方差为1。因为简单?

为什么在其他 softmax 的应用场景,不需要做 scaled?

transformer中的attention为什么scaled? - 小莲子的回答 - 知乎

为什么在分类层(最后一层),使用非 scaled 的 softmax?

因为木有两个随机变量相乘的情况,所以不存在点积后的结果数量级大会导致反向传播梯度变小!

注意力机制的softmax溢出怎么解决?

原文链接

transformer中的attention为什么scaled? - TniL的回答 - 知乎

transformer中的attention为什么scaled? - 小莲子的回答 - 知乎

浅谈Transformer的初始化、参数化与标准化 - 科学空间|Scientific Spaces

  • 5
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
是的,在Transformer有多头注意力机制和交叉注意力机制。 多头注意力机制是指将输入分成多个头,每个头都进行注意力计算,最后将它们合并在一起。这种方法可以使模型更好地捕捉输入的不同特征,从而提高模型的性能。 交叉注意力机制是指在编码器和解码器之间引入注意力机制,以便解码器可以在生成输出时关注编码器的不同部分。这种方法可以帮助模型更好地理解输入和输出之间的关系,从而提高模型的性能。 下面是一个使用多头注意力机制和交叉注意力机制的Transformer模型的示例代码: ```python import tensorflow as tf from tensorflow import keras from tensorflow.keras import layers # 定义一个多头注意力层 class MultiHeadAttention(layers.Layer): def __init__(self, embed_dim, num_heads): super(MultiHeadAttention, self).__init__() self.num_heads = num_heads self.embed_dim = embed_dim if embed_dim % num_heads != 0: raise ValueError( f"embedding dimension = {embed_dim} should be divisible by number of heads = {num_heads}" ) self.projection_dim = embed_dim // num_heads self.query_dense = layers.Dense(embed_dim) self.key_dense = layers.Dense(embed_dim) self.value_dense = layers.Dense(embed_dim) self.combine_heads = layers.Dense(embed_dim) def attention(self, query, key, value): score = tf.matmul(query, key, transpose_b=True) dim_key = tf.cast(tf.shape(key)[-1], tf.float32) scaled_score = score / tf.math.sqrt(dim_key) weights = tf.nn.softmax(scaled_score, axis=-1) output = tf.matmul(weights, value) return output, weights def separate_heads(self, x, batch_size): x = tf.reshape(x, (batch_size, -1, self.num_heads, self.projection_dim)) return tf.transpose(x, perm=[0, 2, 1, 3]) def call(self, inputs): # 获取输入 query, key, value, mask = inputs["query"], inputs["key"], inputs["value"], inputs["mask"] batch_size = tf.shape(query)[0] # 将输入通过全连接层进行变换 query = self.query_dense(query) key = self.key_dense(key) value = self.value_dense(value) # 将输入分成多个头 query = self.separate_heads(query, batch_size) key = self.separate_heads(key, batch_size) value = self.separate_heads(value, batch_size) # 计算注意力 attention, weights = self.attention(query, key, value) # 将多个头合并在一起 attention = tf.transpose(attention, perm=[0, 2, 1, 3]) concat_attention = tf.reshape(attention, (batch_size, -1, self.embed_dim)) output = self.combine_heads(concat_attention) return output # 定义一个Transformer模型 class Transformer(keras.Model): def __init__(self, num_layers, embed_dim, num_heads, fully_connected_dim, input_vocab_size, target_vocab_size, dropout_rate=0.1): super(Transformer, self).__init__() self.embed_dim = embed_dim self.num_layers = num_layers # 定义编码器 self.encoder = keras.Sequential( [layers.Embedding(input_vocab_size, embed_dim),] + [ layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), layers.Dense(fully_connected_dim, activation="relu"), layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), MultiHeadAttention(embed_dim, num_heads), layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), layers.Dense(embed_dim, activation="relu"), layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), ] * num_layers ) # 定义解码器 self.decoder = keras.Sequential( [layers.Embedding(target_vocab_size, embed_dim),] + [ layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), layers.Dense(fully_connected_dim, activation="relu"), layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), MultiHeadAttention(embed_dim, num_heads), layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), MultiHeadAttention(embed_dim, num_heads), layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), layers.Dense(embed_dim, activation="relu"), layers.Dropout(dropout_rate), layers.LayerNormalization(epsilon=1e-6), ] * num_layers ) # 定义输出层 self.final_layer = layers.Dense(target_vocab_size) def call(self, inputs): # 获取输入 input_seq, target_seq, enc_padding_mask, look_ahead_mask, dec_padding_mask = inputs # 将输入通过编码器 enc_output = self.encoder(input_seq) # 将编码器的输出通过解码器 dec_output = self.decoder( target_seq, attention_mask=look_ahead_mask, encoder_output=enc_output ) # 将解码器的输出通过输出层 final_output = self.final_layer(dec_output) return final_output # 创建一个Transformer模型 transformer = Transformer( num_layers=2, embed_dim=32, num_heads=2, fully_connected_dim=32, input_vocab_size=1000, target_vocab_size=1000, dropout_rate=0.1, ) # 定义输入 input_seq = tf.random.uniform((64, 10), dtype=tf.int64, minval=0, maxval=200) target_seq = tf.random.uniform((64, 10), dtype=tf.int64, minval=0, maxval=200) enc_padding_mask = tf.random.uniform((64, 1, 1, 10), dtype=tf.float32, minval=0, maxval=1) look_ahead_mask = tf.random.uniform((64, 1, 10, 10), dtype=tf.float32, minval=0, maxval=1) dec_padding_mask = tf.random.uniform((64, 1, 1, 10), dtype=tf.float32, minval=0, maxval=1) # 运行模型 output = transformer( inputs=(input_seq, target_seq, enc_padding_mask, look_ahead_mask, dec_padding_mask) ) print(output.shape) # 输出:(64, 10, 1000) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值