- 博客(3)
- 收藏
- 关注
原创 机器翻译实例:基于Transformer和PyTorch的中日机器翻译模型
注:由于服务器计算能力有限,想要看到训练的效果请使用自己的带GPU的电脑运行这一套代码。当你使用自己的GPU的时候,NUM_ENCODER_LAYERS 和 NUM_DECODER_LAYERS 设置为3或者更高,NHEAD设置8,EMB_SIZE设置为512。
2024-06-26 20:56:01 802
原创 机器翻译-注意力机制
首先,我们导入所需的库和模块,设置CUDA设备,并打印PyTorch版本和使用的设备。我们定义了一些特殊符号。其中“<pad>”(padding)符号用来添加在较短序列后,直到每个序列等长,而“<bos>”和“<eos>”符号分别表示序列的开始和结束。特殊符号的定义是为了标记句子的开始、结束和填充,这对于处理不同长度的句子以及在机器学习模型中标记句子边界非常重要。这些符号在训练过程中帮助模型更好地理解句子结构和上下文。!# 导入所需的库import osimport io。
2024-06-26 17:51:06 1090
原创 姓氏分类:前馈神经网络(多层感知器和卷积神经网络)
输入层(Input layer),众多神经元(Neuron)接受大量非线形输入讯息。输入的讯息称为输入向量。输出层(Output layer),讯息在神经元链接中传输、分析、权衡,形成输出结果。输出的讯息称为输出向量。隐藏层(Hidden layer),简称“隐层”,是输入层和输出层之间众多神经元和链接组成的各个层面。如果有多个隐藏层,则意味着多个激活函数。
2024-06-16 18:54:54 655 6
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人