层次softmax

基本原理

  • 根据标签(label)和频率建立霍夫曼树;(label出现的频率越高,Huffman树的路径越短)
  • Huffman树中每一叶子结点代表一个label;

层次之间的映射

将输入层中的词和词组构成特征向量,再将特征向量通过线性变换映射到隐藏层,隐藏层通过求解最大似然函数,然后根据每个类别的权重和模型参数构建Huffman树,将Huffman树作为输出。 

è¿éåå¾çæè¿°

模型的训练

Huffman树中每一叶子结点代表一个label,在每一个非叶子节点处都需要作一次二分类,走左边的概率和走右边的概率,这里用逻辑回归的公式表示 

如何做到fast

 

参考

  1. 层次softmax函数(hierarchical softmax)
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个使用多层次注意力机制的Python代码示例: ```python layer3 = Dense(machine_vocab_size, activation=softmax) def get_model(Tx, Ty, layer1_size, layer2_size, x_vocab_size, y_vocab_size): X = Input(shape=(Tx, x_vocab_size)) a1 = Bidirectional(LSTM(layer1_size, return_sequences=True), merge_mode='concat')(X) a2 = attention_layer(a1, layer2_size, Ty) a3 = \[layer3(timestep) for timestep in a2\] model = Model(inputs=\[X\], outputs=a3) return model def one_step_of_attention(h_prev, a): h_repeat = at_repeat(h_prev) i = at_concatenate(\[a, h_repeat\]) i = at_dense1(i) i = at_dense2(i) attention = at_softmax(i) context = at_dot(\[attention, a\]) return context def attention_layer(X, n_h, Ty): h = Lambda(lambda X: K.zeros(shape=(K.shape(X)\[0\], n_h)))(X) c = Lambda(lambda X: K.zeros(shape=(K.shape(X)\[0\], n_h)))(X) at_LSTM = LSTM(n_h, return_state=True) output = \[\] for _ in range(Ty): context = one_step_of_attention(h, X) h, _, c = at_LSTM(context, initial_state=\[h, c\]) output.append(h) return output ``` 这段代码定义了一个多层次注意力机制的模型。其中,`get_model`函数用于创建模型,`one_step_of_attention`函数用于计算注意力权重,`attention_layer`函数用于实现多层次注意力机制。这个模型可以用于处理文档级别的任务,并能够更好地捕捉全局和局部的信息。 #### 引用[.reference_title] - *1* *3* [Python 实现注意力机制](https://blog.csdn.net/weixin_42232219/article/details/120540288)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [朴实无华!注意力机制神经网络解析](https://blog.csdn.net/qq_33431368/article/details/118004720)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值