import tensorflow as tf
# tf.enable_eager_execution()
batch_size = 2
seq_length = 3
word2id = {}
word2id["love"] = 0
word2id["you"] = 1
word2id["hate"] = 2
word2id["I"] = 3
embedding_dim = 20
seq1 = tf.placeholder(name="seq1",shape=[batch_size,seq_length],dtype=tf.int32)
seq2 = tf.placeholder(name="seq2",shape=[batch_size,seq_length],dtype=tf.int32)
y = tf.placeholder(name="yy",shape=[batch_size],dtype=tf.float32)
word_embedding = tf.get_variable("word_embedding", trainable=True,
shape=[len(word2id),embedding_dim], dtype=tf.float32)
seq1_ = tf.nn.embedding_lookup(word_embedding,seq1)
mini textmatch 模型 + 人造少量数据,打印观测 attention 值的情况,以理解attention,或看设计的match计算模块是否有用
通过使用mini textmatch模型并制造少量数据,本文旨在观察和理解attention机制的工作原理。通过对attention权重的打印和分析,可以揭示哪些词对之间的匹配对最终结果产生了最大影响,从而评估设计的match计算模块的有效性。
摘要由CSDN通过智能技术生成