- 博客(2)
- 收藏
- 关注
原创 datawhale AI 夏令营 NLP task3 学习笔记
基于循环或卷积神经网络的序列到序列建模方法是现存机器翻译任务中的经典方法。然而,它们在建模文本长程依赖方面都存在一定的局限性。对于卷积神经网络来说,受限的上下文窗口在建模长文本方面天然地存在不足。如果要对长距离依赖进行描述,需要多层卷积操作,而且不同层之间信息传递也可能有损失,这些都限制了模型的能力。而对于循环神经网络来说,上下文的语义依赖是通过维护循环单元中的隐状态实现的。在编码过程中,每一个时间步的输入建模都涉及到对隐藏状态的修改。
2024-07-20 22:08:24
1029
原创 datawhale AI 夏令营 task2笔记
基于术语词典干预的机器翻译挑战赛(作为小白以及刚入学的大学生,不具备很强的技术力,只是在照猫画虎之后谈一谈收获)赛事概要。
2024-07-17 20:53:53
271
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人