- 博客(5)
- 收藏
- 关注
原创 基于Transformer解决机器翻译任务#Datawhale AI夏令营
Transformer是一种用于自然语言处理(NLP)和其他序列到序列(sequence-to-sequence)任务的深度学习模型架构,它在2017年由Vaswani等人首次提出。Transformer架构引入了自注意力机制(self-attention mechanism),这是一个关键的创新,使其在处理序列数据时表现出色。自注意力机制(Self-Attention)
2024-07-20 22:25:28
391
原创 Task2-NLP自然语言处理、入门深度学习#Datawhale AI夏令营
在机器翻译的发展进程中,译文质量评价有着非常重要的作用。例如,在电视系统上为了便于视频的传播,会使用各种编码器将视频编码成数字信号,在客户端,相应的解码器组件会把收到的数字信号解码为视频。(构成单词的基本组成部分,一个词素可以是一个完整的单词,也可以是单词的一部分,但每一个词素都至少携带一部分语义或语法信息),这是NLP中最基本的步骤之一。:使用预训练的词向量或自己训练词向量,将词汇表中的词映射到高维空间中的向量,以捕捉语义信息(当前大模型领域训练的 embedding 模型就是用来完成此任务的)。
2024-07-20 21:59:58
614
原创 Task3---使用深度学习模型 #Datawhale AI夏令营
代码开始处导入了所需的库,包括数据处理库NumPy和Pandas,以及用于构建LSTM模型的Keras库。测试数据集(OOT,Out-Of-Time)也被反转并用0填充以满足序列长度要求。模型包括一个LSTM层,用于学习时间序列数据的特征,以及一个重复向量层。,用于复制上一个LSTM层的输出以供下一个LSTM层使用。再次使用LSTM层和时间分布的密集层来预测序列的下一个值。序列被反转,并且如果序列长度不足100,则用0填充。,提取特定列(索引为3的列)的数据作为时间序列。是序列的一部分,同样进行反转。
2024-07-20 21:09:58
314
原创 Task2---入门lightgbm,构建特征工程 #DataWhale AI夏令营
特征工程是参与机器学习竞赛的重要环节,可以通过并改善特征或者构建新的。
2024-07-17 21:57:14
285
空空如也
vs2022 C++执行
2023-03-30
TA创建的收藏夹 TA关注的收藏夹
TA关注的人