DL4J的神经网络输入处理DataSet介绍

Deeplearning4j的数据是由一个叫做DataSet的对象传入网络进行训练的,DataSet由四个主要元素组成,Features,Labels,FeaturesMask,LabelsMask,这四个元素都是INDArray,即是N维矩阵或者叫做N维张量。一般来说是2-4维矩阵,分别对应全联接网络、RNN网络、CNN网络的输入。

四个元素简单介绍如下:

  • Features 特征,特征可以是N维矩阵,以RNN举例,RNN的输入矩阵各维度的维数是[MiniBatch,FeaturesLength,TimeSeqLength],其中第二个维度就是特征列的个数,单个值[x,y,z]的含义就是MiniBatch的某一个批次x,时间序列TimeSeq的某一个时间点z,某一个Feature特征y的值。
  • Labels 标签,标签的维度需要和特征相对应,还是以RNN为例,标签的维度的维数就是[MiniBatch,LabelLength,TimeSeqLength],其中,如果网络是一个分类器网络的话,LabelLength是对应标签的独热处理,即LabelLength相当于分类数classes;如果网络是一个回归函数的话,那么LabelLength就是对应输出的几个回归目标值y的个数(一般是一个)。即是说,FeaturesLength相当于网络的InputSize;LabelLength相当于网络的OutputSize。输入输出的宽度。
  • FeaturesMask以及LabelsMask 特征掩模和标签掩模,如果需要掩盖某些数据的输入输出,即我们需要扔掉一些数据的输入或者输出,比方说RNN序列输出我只需要输出最后一个,或者输入我只需要前三个,那么这两个元素就有用了。以RNN为例,如果我的Label每个TimeSeq只输出最后一个时间点的值,那么LabelsMask就可以这么写,labelsMask的维度是[MiniBatch,TimeSeqLength],比方说是[x,y]当且仅当y = TimeSeqLength - 1 的时候[x,y] = 1,其余[x,y] = 0。这样就写好了一个输出的掩模。

关于RNN掩模的具体介绍可以看官网:

通过DL4J使用循环网络

Dataset的初始化方法源码:

/**
 * Creates a dataset with the specified input matrix and labels
 *
 * @param first  the feature matrix
 * @param second the labels (these should be binarized label matrices such that the specified label
 *               has a value of 1 in the desired column with the label)
 */
public DataSet(INDArray first, INDArray second) {
    this(first, second, null, null);
}

/**Create a dataset with the specified input INDArray and labels (output) INDArray, plus (optionally) mask arrays
 * for the features and labels
 * @param features Features (input)
 * @param labels Labels (output)
 * @param featuresMask Mask array for features, may be null
 * @param labelsMask Mask array for labels, may be null
 */
public DataSet(INDArray features, INDArray labels, INDArray featuresMask, INDArray labelsMask) {
    this.features = features;
    this.labels = labels;
    this.featuresMask = featuresMask;
    this.labelsMask = labelsMask;

    // we want this dataset to be fully committed to device
    Nd4j.getExecutioner().commit();
}

可以用getRange函数来截取一部分数据。

DataSet可以用merge函数竖向拼接。

可以用load函数来从流(或将文件转化为流)中读取数据。

可以用save函数来将DataSet存成流或者文件。Save和load函数会规定好用一个Byte的数据表示读取的一些属性,这样load的时候就能正确解析。

 

 

卷积神经网络(Convolutional Neural Network, CNN)是一种专门针对图像、视频等结构化数据设计的深度学习模型,它在计算机视觉、语音识别、自然语言处理等多个领域都有广泛应用。CNN的核心设计理念源于对生物视觉系统的模拟,尤其是大脑皮层中视觉信息处理的方式,其主要特点包括局部感知、权重共享、多层级抽象以及空间不变性。以下是CNN技术的详细介绍: ### **1. 局部感知与卷积操作** **卷积层**是CNN的基本构建块,它通过使用一组可学习的滤波器(或称为卷积核)对输入图像进行扫描。每个滤波器在图像上滑动(卷积),并以局部区域(感受野)内的像素值与滤波器权重进行逐元素乘法后求和,生成一个输出值。这一过程强调了局部特征的重要性,因为每个滤波器仅对一小部分相邻像素进行响应,从而能够捕获图像中的边缘、纹理、颜色分布等局部特征。 ### **2. 权重共享** 在CNN中,同一滤波器在整个输入图像上保持相同的权重(参数)。这意味着,无论滤波器在图像的哪个位置应用,它都使用相同的参数集来提取特征。这种权重共享显著减少了模型所需的参数数量,增强了模型的泛化能力,并且体现了对图像平移不变性的内在假设,即相同的特征(如特定形状或纹理)不论出现在图像的哪个位置,都应由相同的滤波器识别。 ### **3. 池化操作** **池化层**通常紧随卷积层之后,用于进一步降低数据维度并引入一定的空间不变性。常见的池化方法有最大池化和平均池化,它们分别取局部区域的最大值或平均值作为输出。池化操作可以减少模型对微小位置变化的敏感度,同时保留重要的全局或局部特征。 ### **4. 多层级抽象** CNN通常包含多个卷积和池化层堆叠在一起,形成深度网络结构。随着网络深度的增加,每一层逐渐提取更复杂、更抽象的特征。底层可能识别边缘、角点等低级特征,中间层识别纹理、部件等中级特征,而高层可能识别整个对象或场景等高级语义特征。这种层级结构使得CNN能够从原始像素数据中自动学习到丰富的表示,无需人工设计复杂的特征。 ### **5. 激活函数与正则化** CNN中通常使用非线性激活函数(如ReLU、sigmoid、tanh等)来引入非线性表达能力,使得网络能够学习复杂的决策边界。为了防止过拟合,CNN常采用正则化技术,如L2正则化(权重衰减)来约束模型复杂度,以及Dropout技术,在训练过程中随机丢弃一部分神经元的输出,以增强模型的泛化性能。 ### **6. 应用场景** CNN在诸多领域展现出强大的应用价值,包括但不限于: - **图像分类**:如识别图像中的物体类别(猫、狗、车等)。 - **目标检测**:在图像中定位并标注出特定对象的位置及类别。 - **语义分割**:对图像中的每个像素进行分类,确定其所属的对象或背景类别。 - **人脸识别**:识别或验证个体身份。 - **图像生成**:通过如生成对抗网络(GANs)等技术创建新的、逼真的图像。 - **医学影像分析**:如肿瘤检测、疾病诊断等。 - **自然语言处理**:如文本分类、情感分析、词性标注等,尽管这些任务通常结合其他类型的网络结构(如循环神经网络)。 ### **7. 发展与演变** CNN的概念起源于20世纪80年代,但其影响力在硬件加速(如GPU)和大规模数据集(如ImageNet)出现后才真正显现。经典模型如LeNet-5用于手写数字识别,而AlexNet、VGG、GoogLeNet、ResNet等现代架构在图像识别竞赛中取得突破性成果,推动了CNN技术的快速发展。如今,CNN已经成为深度学习图像处理领域的基石,并持续创新,如引入注意力机制、残差学习、深度可分离卷积等先进思想。 综上所述,卷积神经网络通过其独特的局部感知、权重共享、多层级抽象等特性,高效地从图像数据中提取特征并进行学习,已成为解决图像和视频处理任务不可或缺的工具,并在众多实际应用中取得了卓越的效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值