- 博客(2)
- 收藏
- 关注
原创 机器翻译技术解析与实战案例:编码器—解码器与注意力机制
Transformer模型完全基于注意力机制,摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)结构。它主要由编码器(Encoder)和解码器(Decoder)组成,编码器将输入序列转换为连续表示,解码器则基于编码器的输出和之前生成的输出序列生成目标序列。在本文中,我们深入探讨了机器翻译技术的发展,特别是Transformer模型在中日语翻译中的应用和实现。
2024-06-25 22:53:35
713
原创 超详细的NLP实战案例解析——使用前馈神经网络进行姓氏分类
通过nn.Module类定义了类,该类构成了多层感知机的主体。该模型由两个线性层(nn.Linear)组成,分别命名为fc1和fc2,它们代表了从输入层到隐藏层再到输出层的映射。torch.manual_seed(seed) # 设置CPU中的随机种子以保证结果的可复现性torch.cuda.manual_seed_all(seed) # 如果使用GPU,也设置随机种子"""初始化多层感知机模型。参数:input_dim (int): 输入层的维度。
2024-06-14 17:16:50
889
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人