来源:周三MLS,分别是两篇RNN的开山论文:attention_on_NLP,show_attend_tell; 这节课说了RNN的一些基本的机制, LSTM的基本结构; 但是我并没有听懂attention机制是什么