CNN和RNN介绍

  1. 主要的神经网络分类方法为:BP神经网络分类算法,径向基神经网络分类算法RBF。
  2. 通过池化操作可以减少特征维度,保持特征拥有空间不变性。
  3. CNN网络在交叉相连的卷积层,池化层后紧连着全连接层与分类器,全连接层通常为多层神经网络(MLP),在森曾CNN中全连接层中,大多采用能精确模拟生物激活模型的Relu激活函数,其能够使网络在训练过程中加速随机梯度下降法SGD的收敛和防止梯度消失,以提高网络训练速度。
  4. 于此同时,为了避免网络在训练过程中出现过拟合问题,添加进入了一些Dropput(随机丢失技术),该方法使全连接层的神经节点以一定的比例丢失,从而减少了网络的训练参数,避免网络产生过拟合。由于Dropout具有灵活性,所以每次数据输入的网络结构都有差异,其降低了神经元间的互相适应的复杂度,使CNN网络提取的图像特征表达具有鲁棒性,。目前Dropout技术在众多卷积神经网络得到了很好的应用,并取得了很好的分类性能,最后将经过全连接层整合后的具有区分性的特征信息送入分类器,通常采用Softmax逻辑回归或者SVM等作为特征分类器。
  5. 常见的无监督学习算法,如稀疏自编码器(Sparse autoencoders)[44]、受限玻尔兹曼机(RBM)[45]、高斯混合模型(GMMs)[46]、 K-means[47][48]和主成分分析(PCA)[49]等在图像处理领域有着广泛的应用。由于无监督训练方法可以从输入样本中学习到特征变换关系,所以通过无监督训练算法可以把输入样本变换成新的特征表达。无监督学习算法在提取图像特征时大多数[50][51][52][53][54]采用一种较为相似的框架结构,该框架包含若干个步骤。通过如下步骤去学习特征表示:如下图所示:

  6. 所谓激励函数就是对卷积层的输出进行一次非线性映射。
  7. Co-training phase在协同训练阶段,实际上是半监督学习方法,利用两个或者更多个分类器学习
  8. LSTM的内容结构,通过门控状态来控制传输状态,记住需要长时间记忆的,忘记不重复的信息;而不像普通的RNN那样只能够呆萌的仅有一种记忆叠加方式。对很多需要“长期记忆”的任务来说尤其好用。但是也因为引入了很多内容,导致参数变多,也使得训练难度加大了很多,因此很多时候我2们往往会使用效果和LSTM相差但参数更少的GRU来构建训练量大的模型。下图是具体介绍的过程

  1. 协同训练的目的就是利用现有的已有标签的数据未被标记的数据。
  2. 循环神经网络是一种用于处理序列数据的神经网络,相比一般的神经网络而言,RNN能够处理序列变化的数据,比如某一个单词的意思因为上下文提到的内容不同会有不同的含义,RNN就能够很好的解决这类问题。
  3. RNN详细的介绍https://zhuanlan.zhihu.com/p/32085405
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
文本分类可以使用多种模型,其中包括文本分类CNNRNN。文本分类CNN模型使用了一维卷积层和时序最大池化层。首先,定义多个一维卷积核,并使用这些卷积核对输入进行卷积计算,不同宽度的卷积核可以捕捉到不同个数的相邻词的相关性。然后,对输出的所有通道分别进行时序最大池化,得到池化输出值,并将这些通道的池化输出值连结为向量。最后,通过全连接层将连结后的向量变换为关于各类别的输出,可以使用丢弃层来应对过拟合。 而文本分类RNN模型则使用循环神经网络,通过将序列中的每个词依次输入RNN中进行处理。RNN会记住之前的信息,并根据当前输入的词和之前的记忆进行预测和分类。这使得RNN在处理序列数据时具有较好的表现。 总而言之,文本分类CNNRNN模型都是用于处理文本分类任务的模型,其中文本分类CNN使用了卷积层和池化层,而文本分类RNN使用了循环神经网络。它们都可以根据输入的文本序列进行分类预测。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [人工智能-项目实践-文本分类-CNN-RNN中文文本分类,基于TensorFlow](https://download.csdn.net/download/admin_maxin/85357377)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [文本分类(使用RNNCNN)](https://blog.csdn.net/weixin_44696221/article/details/104466421)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [NLP实践 数据探索 CNNRNN训练文本分类器 (转载)](https://blog.csdn.net/weixin_43599067/article/details/90183059)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值