0. 说明
思磐问的问题, 但是晚上没有好好的回答(哭/(ㄒoㄒ)/~~), 也借着机会问了廖陈峰博士, 记录下来~
1. 原因
- attention是soft的, 所有的输入序列都过一遍, 很容易出现错误, 事实上真实的attention是单调且连续的
- 自回归模型对attention的要求会更高, 其中一步算错了, 后面基本全错
- attention跟生成mel-spectrogram是一起学习的, 增加了学习的难度
2. 解决方案
每个方面均对应一些论文
思磐问的问题, 但是晚上没有好好的回答(哭/(ㄒoㄒ)/~~), 也借着机会问了廖陈峰博士, 记录下来~
每个方面均对应一些论文