- 博客(3)
- 收藏
- 关注
原创 DatawhaleAI夏令营第二期NLP方向Task3笔记
Transformer是一种机器学习模型架构,特别是在自然语言处理(NLP)领域中表现出色。它由Vaswani等人于2017年提出,是一种基于注意力机制(attention mechanism)的深度学习模型。Transformer 的设计主要解决了传统循环神经网络(RNN)在处理长距离依赖性时性能下降的问题,同时也提高了并行计算的效率。自注意力机制(Self-Attention):Transformer 使用自注意力机制来捕捉输入序列中各个位置之间的依赖关系,而不像RNN那样按顺序处理。
2024-07-19 00:00:00
556
原创 DatawhaleAI夏令营第二期NLP方向Task2笔记
Seq2Seq模型(Sequence-to-Sequence模型),也称为编码器-解码器模型,是一种用于处理序列到序列(Sequence-to-Sequence)任务的深度学习架构,最初由Sutskever等人在2014年提出并广泛应用于机器翻译任务。以下是Seq2Seq模型的基本原理:基本结构编码器(Encoder):编码器的作用是将输入序列(如源语言句子)转换为一个上下文向量(context vector)或者一个固定长度的编码器输出。
2024-07-15 13:16:47
878
原创 DatawhaleAI夏令营第二期NLP方向Task1笔记
在当今数字化和信息化的时代,自然语言处理(NLP)作为人工智能(AI)领域的重要分支,正以惊人的速度改变着我们与信息交互的方式。NLP不仅仅是理解和处理人类语言的技术,它更是连接人与机器之间沟通桥梁的核心技术之一。随着大数据的兴起和计算能力的增强,NLP在多个领域展现出了其巨大的潜力和广泛的应用。从语音识别到文本理解,从机器翻译到智能客服,NLP技术正在深刻影响着我们的生活和工作方式。它不仅使得信息的获取和处理更加高效,也为个性化服务和智能决策提供了技术支持。
2024-07-14 14:26:55
669
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人