自然语言几个重要的模型

本文介绍了自然语言处理中的重要模型,包括循环神经网络、双向循环神经网络、LSTM、GRU、textCNN、seq2seq、Attention机制、Transformer、以及语言模型预训练方法ELMO、BERT和GPT等。这些模型分别解决了序列依赖、梯度消失、注意力机制等问题,并在词向量计算和序列到序列任务中发挥了关键作用。
摘要由CSDN通过智能技术生成

自然语言几个重要的模型。

  • 循环神经网络 (序列模型序列依赖问题)
  • 双向循环神经网络(输入序列正向和反向依赖问题)
  • 深度双向循环神经网络
  • LSTM(梯度消失问题)
  • GRU
  • text CNN(一维卷积和池化)
  • seq2seq(序列到序列问题)
  • Attention(decoder对encoder输入序列注意力问题,从输入获取可用信息)
  • Transform(对输入的序列分成q检索项 k键项 v值项进行计算,矩阵并行计算)
  • 语言预训练方法ELMO (使用双向rnn组合中间层权重)
  • 语言预训练方法BERT ERNIE (使用transform encoder部分无需标签,ERNIE主要处理中文场景按词mask)
  • 语言预训练方法GPT (使用transform decoder部分)
1.循环神经网络

在这里插入图片描述

  • 使用隐藏层保留之前时间步的信息
  • 梯度裁剪 处理梯度爆炸问题,即超出阈值怎重置为阈值。因为在RNN中目标函数有关隐藏状态的梯度会因为时间步数较大或时间步较小而变大。
2.双向循环神经网络

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值