- 博客(3)
- 收藏
- 关注
原创 基于Transformer实现机器翻译(日译中)
在自然语言处理(NLP)领域,机器翻译是一项重要且具有挑战性的任务。近年来,基于Transformer的模型在机器翻译任务中表现出色。本文将详细介绍如何使用PyTorch、Torchtext、SentencePiece以及Jupyter Notebook构建一个日语到中文的机器翻译模型。
2024-06-26 08:45:23
1049
原创 机器翻译:编码器-解码器与注意力机制的应用
编码器-解码器架构(Encoder-Decoder Architecture)是一种常用于序列到序列(Sequence-to-Sequence)任务的神经网络结构。该架构包括两个主要部分:编码器(Encoder)和解码器(Decoder)。编码器:编码器将输入序列(例如法语句子)转换为一个固定长度的上下文向量(Context Vector)。这个上下文向量包含输入序列中的所有信息。解码器:解码器从这个上下文向量生成输出序列(例如英语句子)。解码器是一个根据上下文向量逐步生成翻译结果的神经网络。
2024-06-17 15:15:32
1075
原创 自然语言处理(nlp)前馈网络(姓氏分类的应用)
MLP通过增加隐藏层和非线性激活函数解决了感知器的局限性。MLP不仅可以处理线性可分问题,还能处理非线性可分问题。最简单的MLP,如下图所示,由三个表示阶段和两个线性层组成。第一阶段是输入向量。这是给定给模型的向量。在“示例:对餐馆评论的情绪进行分类”中,输入向量是Yelp评论的一个收缩的one-hot表示。给定输入向量,第一个线性层计算一个隐藏向量——表示的第二阶段。隐藏向量之所以这样被调用,是因为它是位于输入和输出之间的层的输出。我们所说的“层的输出”是什么意思?
2024-06-13 13:54:19
744
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人