- 博客(3)
- 收藏
- 关注
原创 基于transformer实现机器翻译(日译中)
接下来的几段代码和文本解释(用斜体写成)摘自最初的 PyTorch 教程[ https://PyTorch.org/tutorials/beginner/translation_transformer.html ]。除了 BATCH _ SIZE 和单词 de _ ocabwhich 被更改为 ja _ ocabb 之外,我没有做任何更改。Transformer是一个 Seq2Seq 模型介绍了“注意力是你所需要的一切”文件,以解决机器翻译任务。
2024-06-25 22:01:14
708
原创 运用前馈神经网络处理姓氏分类
多层感知器(MLP)被认为是最基本的神经网络构建模块之一。感知器将数据向量作为输入,计算出一个输出值。在MLP中,许多感知器被分组,以便单个层的输出是一个新的向量,而不是单个输出值。在PyTorch中,只需设置线性层中的输出特性的数量即可完成。MLP的另一个方面是,它将多个层与每个层之间的非线性结合在一起。最简单的MLP,如下图所示,由三个表示阶段和两个线性层组成。第一阶段是输入向量。这是给定给模型的向量。给定输入向量,第一个线性层计算一个隐藏向量——表示的第二阶段。隐藏向量之所以这样被调用,是因为它是位于
2024-06-16 16:39:51
881
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人