- 博客(3)
- 收藏
- 关注
原创 基于transformer的日译中机器翻译模型
我们将使用从JParaCrawl!在这里,我将BATCH_SIZE设置为16以防止“cuda内存不足”,但这取决于各种事情,例如您的机器内存容量,数据大小等,因此可以根据您的需要随意更改批大小(注意:PyTorch的教程使用Multi30k德语-英语数据集将批大小设置为128)。这是不言而喻的,但是完成训练所需的时间可能会有很大的不同,这取决于很多事情,比如计算能力、参数和数据集的大小。首先,我们创建翻译新句子的函数,包括获取日语句子、标记化、转换为张量、推理,然后将结果解码回句子,但这次是英语。
2024-06-27 20:37:57 936
原创 13.机器翻译
所谓是指将文本从一种语言通过机器翻译模型来翻译成另一种语言。一段文本序列在不同语言中的长度不一定相同,所以首先,以机器翻译为例,我们来介绍编码器—解码器和注意力机制的应用。稍后,将通过来作为实践案例。
2024-06-27 20:20:47 397
原创 自然语言处理前馈网络
众所周知,感知器是现存最简单的神经网络。但是例如,图1中绘制的数据点。这相当于的情况,在这种情况下,这个例子中,感知器并不适用。图1 XOR数据集中的两个类绘制为圆形和星形。我们发现不能用一条直线将其分开我们将探索传统上称为,以及两种前馈神经网络:多层感知器和卷积神经网络。多层感知器在结构上扩展了我们研究的简单感知器,将多个感知器分组在一个单层,并将多个层叠加在一起。我们稍后将首先介绍我们研究的第二种前馈神经网络,,在处理数字信号时深受窗口滤波器的启发。
2024-06-24 15:34:03 1017
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人