![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 93
AiBigData
生而有涯,知而无涯.
不断迭代,实现自我.
展开
-
BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding-论文翻译
BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding摘要我们介绍一种新的语言表达模型叫做BERT,它代表Transformers双向编码器表示。不像之前的语言表示模型(Peters et al.,2018a;Radford et al.,2018),BERT被设计成使用无标签在所有层的左右内容共同条件的预训练深度双向表示。结果上,预训练BERT模型仅仅一个附加的输出层的微调能在广范围任务中创造最先进原创 2021-08-14 15:14:11 · 392 阅读 · 0 评论 -
Attention Is All You Need论文翻译
Attention Is All You Need摘要显著优势得时序转换模型都是以复杂的包括一个编码器和一个解码器的循环神经或者卷积神经网络。最好性能的模型也通过一个attention机制连接着编码器和解码器。我们提出了一个新的简单的网络架构,The Transformer,仅仅以注意力机制为基础,完全省略了循环和卷积神经网络。在两个机器翻译的实验上表明模型有更好的质量同时更可平行化且需要更少的训练时间。我们的模型在WMT2014英译德翻译任务获得了28.4分,改善了存在的最好的结果,包括集成,超过2个原创 2021-08-08 10:56:46 · 417 阅读 · 0 评论 -
NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE-论文翻译
NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE摘要神经系统的机器翻译是一个最近被提出到机器翻译的方法。不像传统的统计机器翻译模型,神经系统翻译目的在于创建一个单神经网络,这个网络能被共同调整最大化机器翻译性能。 最近提出用于神经机器翻译的模型通常属于编码器-解码器家族,并将源句子编码到一个固定长度的向量,这个向量是通过解码器生成翻译。在这篇论文中,我们猜想使用一个固定长度向量是一个瓶颈,在提高以编码器-解码器为基原创 2021-07-26 22:33:44 · 2457 阅读 · 0 评论 -
seq2seq 论文翻译
Sequence to Sequence Learning with Neural Networks摘要深度神经网络(DNNS)是十分强大的模型已经在困难的学习任务中获得了卓越的表现。尽管DNNS在大型标记训练集上取得了很好的效果,但是他们不能使用时序到时序的映射。在这篇论文中,我们提出了一个通用的端到端的序列学习方法,该方法在时序的结构中进行最小化假设。我们使用多层LSTM模型将输入序列映射到固定维度的向量中,然后另一个深度的 LSTM从这个向量中解码目标的时序。我们的主要结果在WMT14数据集英语到原创 2021-06-13 09:08:09 · 716 阅读 · 0 评论