- 博客(3)
- 收藏
- 关注
原创 使用pytorch和transformer完成日译中的翻译任务
将处理后的张量添加到 ja_batch 和 en_batch 列表。总共,在trainen和trainja中的句子数量为5,973,071条,然而,为了学习目的,通常建议对数据进行采样,并确保一切按预期运行,然后再一次性使用全部数据,以节省时间。在这里,我将BATCH_SIZE设置为16以防止“cuda内存不足”,但这取决于诸如您的机器内存容量、数据大小等各种因素,因此根据您的需求随时可以更改批量大小(注:PyTorch的教程将批量大小设置为128,使用了Multi30k德英数据集作为示例)。
2024-06-24 21:33:42 1258 1
原创 使用The Multilayer Perceptron(多层感知器)实现姓氏分类
目录 1.多层感知机介绍 1.1什么是多层感知机 1.2一个简单的例子 1.3如何使用pytorch实现多层感知机 2.主要实验步骤 2.1 姓氏数据集 2.2 词汇表、向量化器和数据加载器 2.3 姓氏分类器模型 2.4 训练过程 2.5 模型评估和预测 3.完整实验代码 4.补充内容 1.多层感知机的介绍 1.1什么是多层感知机 多层感知器(MLP)被认为是最基本的神经网络构建模块之一。在MLP中,许多感知器被分组,以便单个层的输出是一个
2024-06-24 17:47:55 1609
原创 使用pytorch实现机器翻译
由于解码器的输入来自输出语言的词索引,我们将输入通过词嵌入层得到表征,然后和背景向量在特征维连结。我们将连结后的结果与上一时间步的隐藏状态通过门控循环单元计算出当前时间步的输出与隐藏状态。其中的输出指的是最后一层的隐藏层在各个时间步的隐藏状态,并不涉及输出层计算。我们直接将编码器在最终时间步的隐藏状态作为解码器的初始隐藏状态。其中隐藏层的输入是解码器的隐藏状态与编码器在所有时间步上隐藏状态的一一连结,且使用。在编码器中,我们将输入语言的词索引通过词嵌入层得到词的表征,然后输入到一个多层门控循环单元中。
2024-06-24 09:35:46 1351
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人