- 博客(11)
- 收藏
- 关注
原创 024“大运河杯”数据开发应用创新大赛——城市治理 [Datawhale AI 夏令营 III]
024“大运河杯”数据开发应用创新大赛——城市治理 [Datawhale AI 夏令营 III]
2024-08-31 23:50:54 837
原创 2024“大运河杯”数据开发应用创新大赛——城市治理 [Datawhale AI 夏令营 II]
2024“大运河杯”数据开发应用创新大赛——城市治理 [Datawhale AI 夏令营 II]
2024-08-28 23:54:49 666
原创 2024“大运河杯”数据开发应用创新大赛——城市治理 [Datawhale AI 夏令营]
2024“大运河杯”数据开发应用创新大赛——城市治理 [Datawhale AI 夏令营]
2024-08-26 23:42:56 669
原创 基于天池Better Synth多模态大模型数据合成挑战赛的多模态大模型数据合成(2) [Datawhale AI 夏令营]
基于天池Better Synth多模态大模型数据合成挑战赛的多模态大模型数据合成(2) [Datawhale AI 夏令营]
2024-08-15 23:10:35 1061
原创 基于天池Better Synth多模态大模型数据合成挑战赛的多模态大模型数据合成(1) [Datawhale AI 夏令营]
基于天池Better Synth多模态大模型数据合成挑战赛的多模态大模型数据合成(1) [Datawhale AI 夏令营]
2024-08-13 23:37:32 1124
原创 基于术语词典干预的机器翻译挑战赛(Transformer)[ Datawhale AI 夏令营]
Transformer架构中主要有以下几个核心:位置编码(Positional Encoding)、多头注意力(Multiple Attention)、残差连接(Residual Connections)等。简单概括来讲该任务就是术语词典干预的机器翻译:选择以英文为源语言,中文为目标语言的机器翻译。随着网络层的深度的增加,网络更深层保留的原始信息减少,为了保持信息的不丢失,通过残差连接可以很好地保留该特点。文章,就是这篇文章提出了大名鼎鼎的Transformer网络结构,如下图1所示。
2024-07-20 16:41:06 643 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人