对对联咯

前几天去参加婚礼,和同学坐980快去密云,路上无聊,突然想起了对联,就出了个“上海自来水来自海上”这样的回文对联。然后就把从网上或道听途说的下联讲给他听。例如“山西落日峰日落西山”、“船上女子叫子女上船”、“大波美人鱼人美波大”……最后一个是限制级的,我只能说前五个字“明天到操场”,呵呵。

后来他给我出了一个“近世进士尽是近视”,说目前还没有找到很好的下联,这几天一直在想,刚才终于想到一个,“吾依无依无一无衣”,解释一下:

有个地点叫做“壤塘县吾依乡吾依村”,地点“吾依”对时间“近世”;

“无依”是指没有依靠的人,例如孤儿,对比较风光荣耀的“进士”;

“无一”对“尽是”自我认为比较工整;

“无衣”是指没有衣服穿,衣不蔽体,也算是形容词吧,对“近视”感觉差不多。

这个下联的缺点就是重复字太多(三个无,两个依,上联只有两个近重复),但是已经是我能想到的极致了,查了很多网页和新华字典,力求把读音对准,例如“武夷”“巫医”都是常见易懂的词,然而由于读音对不准,都被我throw away了。看在我这么辛苦的份上,大家呱唧呱唧,谢谢!3gu!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是一个简单的Seq2Seq模型的代码示例,用于实现自动对话系统: ```python import tensorflow as tf # 定义Seq2Seq模型 class Seq2SeqModel(object): def __init__(self, vocab_size, embedding_size, hidden_size): self.vocab_size = vocab_size self.embedding_size = embedding_size self.hidden_size = hidden_size # 定义编码器和解码器 self.encoder = tf.keras.layers.LSTM(hidden_size, return_sequences=True, return_state=True) self.decoder = tf.keras.layers.LSTM(hidden_size, return_sequences=True, return_state=True) # 定义嵌入层 self.embedding = tf.keras.layers.Embedding(vocab_size, embedding_size) # 定义最后的全连接层 self.fc = tf.keras.layers.Dense(vocab_size, activation=tf.keras.activations.softmax) # 定义编码器 def encode(self, inputs): embedded = self.embedding(inputs) outputs, state_h, state_c = self.encoder(embedded) states = [state_h, state_c] return outputs, states # 定义解码器 def decode(self, inputs, states): embedded = self.embedding(inputs) outputs, state_h, state_c = self.decoder(embedded, initial_state=states) states = [state_h, state_c] return outputs, states # 定义前向传播函数 def call(self, inputs, targets): enc_outputs, enc_states = self.encode(inputs) dec_inputs = tf.expand_dims([2] * BATCH_SIZE, 1) dec_states = enc_states outputs = [] for t in range(1, targets.shape[1]): predictions, dec_states = self.decode(dec_inputs, dec_states) outputs.append(predictions) dec_inputs = tf.expand_dims(targets[:, t], 1) outputs = tf.stack(outputs, axis=1) return self.fc(outputs) ``` 在上面的代码中,我们定义了一个Seq2Seq模型,其中包含一个编码器和一个解码器,它们都是LSTM层。我们还定义了一个嵌入层和一个全连接层,用于将输入和输出转换为向量形式。 在编码器中,我们首先将输入通过嵌入层进行嵌入,然后将嵌入后的向量输入到LSTM层中,得到编码器的输出和状态。在解码器中,我们首先将目标输入通过嵌入层进行嵌入,然后将嵌入后的向量和编码器的状态输入到LSTM层中,得到解码器的输出和状态。最后,我们将解码器的输出通过全连接层进行映射,得到最终的预测结果。 在前向传播函数中,我们首先将输入通过编码器进行编码,然后将解码器的输入初始化为一个特殊的“开始”符号。接下来,我们循环遍历目标序列中的每个位置,每次将解码器的输入设置为当前位置的目标符号,并将解码器的状态设置为上一次的状态。最后,我们将解码器的输出通过全连接层进行映射,得到最终的预测结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值