- 博客(3)
- 收藏
- 关注
原创 NLP系列-牛刀小试Attention
目前,注意力机制(Attention)可以说已经成为了nlp任务中必不可缺的要素之一。其基本思想是通过对输入数据中不同部分的重要性进行加权,使模型能够关注到与当前任务相关的信息。在序列建模和自然语言处理任务中,注意力机制已经成为了一种基本的技术手段。
2023-04-25 18:04:18
117
1
空空如也
复现clipcap,进行运行python predictor.py报错了了
2023-06-12
TA创建的收藏夹 TA关注的收藏夹
TA关注的人