这是我花费了两个周末整理和筛选的,可能是史上最细节的自然语言处理NLP面试问题与(部分)答案啦,主要聚焦目前处于NLP舞台中央的Transformer/BERT/后BERT/Self Attention。
筛选的问题会深入到算法/模型更细节的地方,而尽量避免大而泛的问题。本文希望能帮助你对Transformer/BERT的理解再深一层,而这也要求你对上面的算法/模型有基本的认识,主要包括这两部分(后BERT的模型可以自行查找):
1、论文:论文是最一手的资源,没有各方解读的杂音
Transformer: Attention Is All You Need
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
2、源码:在你看完源码之后,对于BERT,你会调用地更所以然