写在前面
思路:来源于《自然语言处理面试基础》;
方式:点杀、输出与迭代;
常见知识点
0105 第一次知识点收集
让我们先看看一些常见自然语言处理面试题:
RNN 为什么会发生梯度消失?如何改进?
LSTM 的模型结构是什么?
为什么说 LSTM 具有长期记忆功能?
LSTM 为什么能抑制梯度衰减?
什么是 Word2Vec?如何训练?
Word2vec,CBOW 和 Skip-gram 的区别是什么?
什么是 seq2seq 模型?有哪些优点?
什么是注意力机制?
为什么要使用注意力机制,有什么优点?
CNN 的原理是什么?有哪些优缺点?
BERT 的模型结构是什么?如何应用?...
知识点梳理
0105 第一次梳理
what
都有哪些核心知识点
RNN 与 LSTM (循环神经网络基础)
Word2vec 与 CBOW 和 Skip-gram(词嵌入)
seq2seq 模型和 attention 机制
CNN 框架
BERT 模型
- RNN 与 LSTM
- Word2vec 与 CBOW 和 Skip-gram
- seq2seq 模型和 attention 机制
seq2seq 是 Google translate 使用的技术,它颠覆了传统的自然语言处理。而Google translate 上线的重大意义在于它