- 博客(3)
- 收藏
- 关注
原创 深入理解基于Transformer的机器翻译(日译中)
以下代码展示了如何使用PyTorch实现一个序列到序列的Transformer模型,用于解决机器翻译任务。1.它包含一个编码器(Encoder)和一个解码器(Decoder),每个部分都包含固定数量的层。2.编码器通过多头注意力(Multi-head Attention)和前馈网络(Feed forward network)层处理输入序列。编码器的输出被称为“记忆”(memory),它被用来与目标语言的单词一起输入到解码器中。编码器和解码器。
2024-06-22 15:50:45 1306
原创 深入理解机器翻译
我们先定义一些特殊符号。其中“”(padding)符号用来添加在较短序列后,直到每个序列等长,而“”和“”符号分别表示序列的开始和结束。!import collections # 用于创建特殊的数据结构,如OrderedDict、Counter等import os # 用于操作系统相关的操作,如环境变量等import io # 用于I/O操作,如文件读写等import math # 用于数学运算import torch # PyTorch框架的主要库。
2024-06-22 10:42:44 1024
原创 深入理解前馈神经网络
自然语言处理(Natural Language Processing,NLP)是人工智能的一个分支,旨在使计算机能够理解、解释和生成人类语言。在这一领域中,前馈网络(Feedforward Networks)是一种常用的神经网络结构,它能够处理序列数据,如文本、语音等,并用于各种NLP任务,如文本分类、情感分析、机器翻译等。1. 结构简单:前馈网络的结构相对简单,易于理解和实现。2. 计算效率高:前馈网络的计算过程可以并行处理,提高了计算效率。
2024-06-16 15:08:55 1773 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人