自然语言处理(NLP)之路—(1)—面试准备:基础/重要知识点整理

写在前面

思路:来源于《自然语言处理面试基础》;
方式:点杀、输出与迭代;

常见知识点

0105 第一次知识点收集
让我们先看看一些常见自然语言处理面试题:

RNN 为什么会发生梯度消失?如何改进?
LSTM 的模型结构是什么?
为什么说 LSTM 具有长期记忆功能?
LSTM 为什么能抑制梯度衰减?
什么是 Word2Vec?如何训练?
Word2vec,CBOW 和 Skip-gram 的区别是什么?
什么是 seq2seq 模型?有哪些优点?
什么是注意力机制?
为什么要使用注意力机制,有什么优点?
CNN 的原理是什么?有哪些优缺点?
BERT 的模型结构是什么?如何应用?...

知识点梳理

0105 第一次梳理

what

都有哪些核心知识点

RNN 与 LSTM (循环神经网络基础)
Word2vec 与 CBOW 和 Skip-gram(词嵌入)
seq2seq 模型和 attention 机制
CNN 框架
BERT 模型
  • RNN 与 LSTM
  • Word2vec 与 CBOW 和 Skip-gram
  • seq2seq 模型和 attention 机制

seq2seq 是 Google translate 使用的技术,它颠覆了传统的自然语言处理。而Google translate 上线的重大意义在于它

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值