- 博客(3)
- 收藏
- 关注
原创 基于Transformer实现机器翻译——NLP实验
Transformer是一种深度学习模型架构,被广泛用于处理序列数据,尤其是在自然语言处理领域取得了显著的成就。Transformer模型最初由Vaswani等人在2017年提出,作为一种完全基于注意力机制(self-attention)的序列到序列模型。传统的循环神经网络(RNNs)和卷积神经网络(CNNs)在处理长距离依赖关系和并行计算方面存在一些限制,而Transformer通过引入注意力机制来解决这些问题,使得它能够更有效地处理长序列和并行化计算。关键组成部分。
2024-06-28 18:50:05
712
原创 机器翻译——NLP实验
机器翻译(Machine Translation, MT)是一种利用计算机程序自动将一种自然语言(源语言)的文本翻译成另一种自然语言(目标语言)的过程。它的作用在于帮助人们跨越语言障碍,快速和高效地进行文本翻译。
2024-06-28 16:56:11
671
原创 基于MLP和CNN实现姓氏分类——NLP实验
我们将MLP应用于将姓氏分类到其原籍国的任务。从公开观察到的数据推断人口统计信息(如国籍)具有从产品推荐到确保不同人口统计用户获得公平结果的应用。人口统计和其他自我识别信息统称为“受保护属性”。“在建模和产品中使用这些属性时,必须小心。”我们首先对每个姓氏的字符进行拆分,并像对待“示例:将餐馆评论的情绪分类”中的单词一样对待它们。除了数据上的差异,字符层模型在结构和实现上与基于单词的模型基本相似。
2024-06-09 10:29:22
776
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人