tf39:tensorflow之seq2seq

292 篇文章 18 订阅
175 篇文章 13 订阅
本文介绍了TensorFlow实现的seq2seq模型,该模型广泛应用于翻译、图像标题生成和多标签问题。提供了相关代码解读链接以及GitHub资源,帮助读者深入理解并实践seq2seq模型。
摘要由CSDN通过智能技术生成

 

MachineLP的Github(欢迎follow):https://github.com/MachineLP

MachineLP的博客目录:小鹏的博客目录

seq2seq还是很赞的,既能做翻译、又能做image captioning,还能做多标签。

相关代码解读可以查看:

(1) https://zhuanlan.zhihu.com/p/48426550

(2) https://zhuanlan.zhihu.com/p/52608602

手撕seq2seq:https://github.com/zhangluoyang/text_sum/blob/master/seq2seq_attention_model.py

原理介绍已经有很多了,那我们在看一下TF的seq2seq代码吧:

# coding=utf-8
import tensorflow as tf
import numpy as
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
TensorFlow 2.x 中,tf.contrib.seq2seq.AttentionWrapper 已被弃用。相反,可以使用 tf.keras.layers.Attention 类来实现注意力机制。 下面是一个使用 tf.keras.layers.Attention 的示例: ```python import tensorflow as tf # 定义一个 Attention 层 attention = tf.keras.layers.Attention() # 输入序列的形状为 (batch_size, seq_len, embedding_dim) encoder_inputs = tf.keras.Input(shape=(None, embedding_dim)) decoder_inputs = tf.keras.Input(shape=(None, embedding_dim)) # 编码器 LSTM 层 encoder_lstm = tf.keras.layers.LSTM(units=hidden_size, return_sequences=True, return_state=True) encoder_outputs, state_h, state_c = encoder_lstm(encoder_inputs) # 解码器 LSTM 层 decoder_lstm = tf.keras.layers.LSTM(units=hidden_size, return_sequences=True, return_state=True) decoder_outputs, _, _ = decoder_lstm(decoder_inputs, initial_state=[state_h, state_c]) # 注意力机制 context_vector, attention_weights = attention([decoder_outputs, encoder_outputs]) # 输出层 output = tf.keras.layers.Dense(vocab_size, activation='softmax')(context_vector) # 定义模型 model = tf.keras.Model(inputs=[encoder_inputs, decoder_inputs], outputs=output) ``` 在上面的代码中,我们首先定义了一个 tf.keras.layers.Attention 层。然后,我们定义了编码器和解码器 LSTM 层,并使用它们分别对编码器输入和解码器输入进行编码。 接下来,我们使用注意力层对解码器输出和编码器输出进行注意力计算,得到上下文向量和注意力权重。 最后,我们使用一个全连接层对上下文向量进行预测,得到输出结果。 希望这个例子可以帮助你理解如何在 TensorFlow 2.x 中使用注意力机制。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MachineLP

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值