- 博客(1)
- 收藏
- 关注
原创 NLP-Bert核心知识点权威总结
目录自然语言处理涉及的几个层次?nlp任务流程BERT适用场景BERT适合解决句子匹配类任务的原因BERT已经发布的框架包括BERT的主要贡献Transrofmer模型讲解注意力机制,sequence-to-sequence模型的主要瓶颈是需要将源序列的全部内容压缩为一个固定大小的向量。注意力机制通过允许解码器回头查看源序列隐藏状态来缓解这一问题,然后将其加权平均作为额外输入提供给解码器,attention时主要分为三步BERT的输入词向量是三个向量之和:实验的代码流
2020-12-03 19:34:20 2182
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人