本文用会以记录李宏毅老师2021机器学习课程作业
3.21
一.self attention
输出有三种形式:
1.每一个vector对应一个自己的label
2.整个sequence对应一个label
3.由model来决定输出的label,又称为sequence2sequence
即N——N‘
多头attention
positional encoding
二.transformer
深度学习与自然语言处理
hongyi lee hw02-03
最新推荐文章于 2024-10-04 06:04:26 发布