《动手学深度学习——机器翻译及相关技术,注意力机制与seq2seq模型,Transformer》笔记

动手学深度学习:机器翻译及相关技术,注意力机制与seq2seq模型,Transformer

初次学习机器翻译相关,把课程的概念题都记录一下。

目录:
1、机器翻译及相关技术
2、注意力机制与seq2seq模型
3、Transformer

1、机器翻译以及相关技术

1、机器翻译以及相关技术
1、关于Sequence to Sequence模型说法错误的是:
A 训练时decoder每个单元输出得到的单词作为下一个单元的输入单词。
B 预测时decoder每个单元输出得到的单词作为下一个单元的输入单词。
C 预测时decoder单元输出为句子结束符时跳出循环。
D 每个batch训练时encoder和decoder都有固定长度的输入。

选项一:错误,参考Sequence to Sequence训练图示。
选项二:正确,参考Sequence to Sequence预测图示。
选项三:正确,参考Sequence to Sequence预测图示。
选项四:正确,每个batch的输入需要形状一致。

Sequence to Sequence模型

模型:

**
训练在这里插入图片描述
预测在这里插入图片描述
具体结构:
不属于Encoder-Decoder应用的是
A 机器翻译
B 对话机器人
C 文本分类任务
D 语音识别任务
注:
Encoder-Decoder常应用于输入序列和输出序列的长度是可变的,如选项一二四,而分类问题的输出是固定的类别,不需要使用Encoder-Decoder

2、关于集束搜索(Beam Search)说法错误的是:
A 集束搜索结合了greedy search和维特比算法。
B 集束搜索使用beam size参数来限制在每一步保留下来的可能性词的数量。
C 集束搜索是一种贪心算法。
D 集束搜索得到的是全局最优解。

选项一:正确,参考视频末尾Beam Search。
选项二:正确,参考视频末尾Beam Search。
选项三:正确,集束搜索是维特比算法的贪心形式。
选项四:错误

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 基于注意力机制seq2seq模型是在普通seq2seq模型的基础上增加了一种注意力机制来提高模型的效果。 优势: 1. 能够自动习哪些部分对于预测结果更重要,并为其分配更多的权重。 2. 可以处理句子长度较长的问题,因为它不再依赖于固定的固定长度的编码器和解码器。 3. 能够解决普通seq2seq模型中出现的较差的翻译结果问题。 突出点: 1. 对于长度较长的句子能够很好的维持翻译质量 2. 不容易陷入局部最优,能够较好的处理不完整的信息 3. 在翻译、语音识别、问答等领域都有广泛应用 ### 回答2: 基于注意力机制seq2seq模型相比于普通的seq2seq模型具有很多优势和突出点。 首先,普通的seq2seq模型在生成目标序列时,将源序列信息压缩成一个固定长度的向量作为输入。这个输入向量需要承担所有源序列信息的责任,可能导致信息的丢失或混淆。而基于注意力机制seq2seq模型通过引入注意力机制,可以动态地根据输入序列的不同部分赋予不同的权重,从而更好地捕捉源序列的相关信息。 其次,基于注意力机制seq2seq模型具有更好的对齐能力。普通的seq2seq模型在编码阶段将所有源序列信息转化为一个固定长度的向量,难以处理长度不一致或有较大偏移的输入序列。而引入注意力机制后,模型可以在解码阶段对源序列的不同部分进行不同程度的关注,从而更好地适应不同长度或偏移的输入序列。 此外,基于注意力机制seq2seq模型也能够更好地处理长序列。普通的seq2seq模型在生成长序列时,由于编码阶段只将信息压缩为一个向量,可能导致长期依赖问题和信息的衰减。而基于注意力机制seq2seq模型可以通过不同阶段的注意力分配,更好地维持长序列中的信息,增强了序列到序列模型的记忆能力。 综上所述,基于注意力机制seq2seq模型通过动态分配注意力权重,具有更好的信息抓取能力、对齐能力和长序列处理能力。这使得基于注意力机制seq2seq模型机器翻译、文本摘要、语音识别等任务中取得了更好的性能和效果,成为自然语言处理领域中的研究热点和突出方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值