神经网络做NLP的历史

  1. 2001:神经概率语言模型(NPLM)模型用于语言建模任务。语言建模任务指的是给定上下文单词去预测当前单词,NPLM 模型使用前馈神经网络来根据上下文信息预测当前词出现的概率
  2. 2008:将多任务学习应用到NLP领域,多任务学习(Multi-task learning)是基于共享表示,把多个相关的任务放在一起学习的一种机器学习方法
  3. 2013:提出Word2Vec 模型来构建词嵌入表示。以往的文本表示都是基于 one-hot 这类的稀疏向量,具有高维稀疏、无法学习词之间的信息等问题,而 Word2Vec 是密集向量并且能够学习到词之间的相似性
  4. 2013后,大量的深度学习模型开始应用到 NLP 领域,使用最广泛的神经网络是RNN、CNN、层次网络、递归神经网络
  5. 2014:提出了seq2seq模型,Seq2Seq 模型属于编码器-解码器结构,在自然语言处理、计算机视觉、语音识别等领域都有非常广泛的应用
  6. 2015:
    1. attention,Attention 机制从大量信息中有选择地筛选出少量重要信息并聚焦到这些重要信息上,忽略大多不重要的信息。
    2. Memory-based networks:记忆网络是在神经网络的基础上引入记忆单元,用来存储长期记忆。记忆单元可以是向量、矩阵或多个矩阵
  7. 2018:预训练语言模型是指利用大规模数据集预训练模型进行迁移学习。一方面可以更好的初始化网络参数,另一方面可以加快模型收敛,并且能够取得更好的效果。词嵌入可以认为仅用于初始化模型中的第一层,而预训练语言模型是预训练多层神经网络
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值