- 音频的量化是指( ) B
A、对频率进行采样 B、对振幅进行采样
C、对音频进行编码 D、对时域进行采样
- 以下哪项硬件是Cuda加速模型训练的核心所在( )A
A、GPU B、CPU
C、Memory D、SSD
- 反向传播算法的高效性依赖于( )A
A、链式求导 B、递归求解
C、数值求解 D、以上都不是
- 学习率过大,则可能出现( ) D
A、欠拟合 B、无法收敛
C、训练加快 D、以上都是
- 下列哪个不是人工智能的研究领域( ) D
- 机器证明 B、模式识别 C、人工生命 D、编译原理
- MFCC是( )的常用特征。B
- 文本处理 B、语音处理 C、图像处理 D、数据挖掘
- 下列哪一项不属于自然语言处理的研究领域( ) C
A、情感分析 B、文本分类
C、人脸识别 D、语音识别
- 下列哪一项不属于机器学习的工作流程( ) C
A、数据预处理 B、特征工程 C、模型部署 D、模型调优
- 下列哪一项不属于激活函数( ) D
A、Tanh B、LeakyReLU
C、ReLU D、Dropout
- 训练模型使用Cuda的原因是( ) B
A、提供数据处理 B、加速运算
C、提供模型结构 D、必不可缺
- 下列哪一项是激活函数( ) C
A、Dropout B、批归一化
C、ReLU D、池化
- 强化学习的本质是智能体根据环境变化做出一系列的决策。 答案:对。
- 遗传算法、模拟退火算法、蚁群算法都属于启发式搜索算法。 答案:对
- ReLU激活函数常用于隐藏层的激活。 答案:对
- 感知机属于线性模型。 答案:对
- K-means是典型的回归算法。 答案:错
- 文本分词仅用于构建词向量。 答案:错
- 音频的采样是对模拟信号进行的间隔测量。 答案:对
- Softmax回归的的最后输出是向量。 答案:对
- Sigmoid激活函数常用于隐藏层的激活。 答案:错
- TF-IDF的值是词频和和逆文本频率的减法结果。 答案:错
- 提取音频特征时,无需先将模拟信号进行采样、量化,转为数字信号。 答案:错
- 确定了一个卷积核的步长、填充、核大小,即可确定卷积的输出尺寸。 答案:错
- 区块链的典型特征包括去中心化、匿名性、透明性等。 答案:对
- 区块链的应用不限于金融领域。 答案:对
- 强化学习中的奖励是环境对智能体动作的反馈。 答案:对
- ReLU激活函数常用于输出层的激活。 答案:错
- 卷积网络用于图像分类时,通常在卷积后跟随一个全连接网络。 答案:对
- 音频的采样属于连续信号。 答案:错
- 提取音频特征时,需先将模拟信号进行采样、量化,转为数字信号。 答案:对
- 数字图像的像素值通常以整数进行记录。 答案:对
- RGB图像是三通道的彩色图像。 答案:对
- 逻辑回归的损失函数常用交叉熵。 答案:对
- 机器学习的流程包括抽象问题、______、数据预处理、______、训练模型及调优、______、最终模型。 答案:获取数据、特征工程、模型评估
- 生成对抗网络的______用于判断样本真假,______用于生成假样本。 答案:生成器、判别器。
- ReLU激活函数的表达式是______。 答案:max(0, x)
- 2个3x3大小的卷积核,等效于1个______的卷积核。 答案:5x5
- 回归任务常用______损失函数。 答案:平方或均方
- 设有10分类任务,则采用Softmax回归后,其输出向量维度为______。 答案:10
- 区块链中的加密算法属于______算法。答案:非对称加密
- 对一段音频进行切分,使其形成基本单元,叫做:______ 答案:分帧
- 分类和回归可看作两种基本机器学习任务,则图像分割属于______任务、图像生成属于______任务。 答案:分类、回归
- 表达式y=wx+b,一般称w为______、b为______。 答案:权重、偏置
- 单个神经元包含______、______、______、______四部分。 答案:输入、权重、激活函数、输出
- 设某次训练数据为(N, C, H, W),则批归一化是在维度______上进行的归一化。 答案:N
- Sigmoid激活函数的表达式是______。 答案:1/(1+e^-x)
- 强化学习中,智能体的动作会同时获得______和改变______。 答案:奖励、环境
- 给出多层人工神经网络需要激活函数的理由或证明。
激活函数互动作用:人工神经网络由若干层组成,每一层都包括一组神经元,而激活函数用来将这组神经元的输入映射为输出。
激活函数有助于避免单层神经网络的过拟合,这是因为它可以限制神经元的输入,从而使网络更加稳定。
激活函数也有助于简化网络,因为它可以减少神经元的数量,从而减少计算量。
激活函数对于多层神经网络来说是至关重要的,可以帮助网络更好地工作,减少计算量,同时避免过拟合和过度拟合。
如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。
- 什么是小批量随机梯度下降法,其有什么优势。
小批量随机梯度下降法是一种优化方法,它帮助在有限的时间内训练神经网络,对于深度学习模型而言,“随机梯度下降, SGD”,就是基于小批量(mini-batch)的随机梯度下降。
它通过使用比全局训练集更小的训练子集,来减少计算时间。
由于不是在全部训练数据上的损失函数,而是在每轮迭代中,随机优化某一条训练数据上的损失函数,这样每一轮参数的更新速度大大加快,它通常可以快速收敛,因此它可以降低神经网络的训练时间,从而使训练更快、更有效地完成。
此外,小批量随机梯度下降法还可以有效地减少模型训练中的噪声和错误,因为它不会完全依赖一次性从整个数据集中抽取的数据。
另外,由于在收敛之前,它可以避免陷入局部最小值,因此可以得到更精确的模型。
- 什么是学习率,简述学习率过大和过小的影响。
学习率是一种控制学习速度的参数,它可以控制深度学习算法中更新参数的步幅,以启发学习系统在学习过程中如何优化模型参数。
当学习率过大时,它可能会导致模型抖动,并且容易陷入局部最优解,从而导致收敛性降低。
当学习率过小时,则可能导致模型收敛时间变得很长,甚至无法收敛,因此模型无法取得最优性能。
此外,学习率略微不同也会带来不同的结果,如迭代次数、模型性能、收敛情况、收敛速度等,因此有必要通过实验得出最佳学习率。
- 简述训练人工神经网络的三大元素。
人工神经网络主要架构是由神经元、层和网络三个部分组成。整个人工神经网络包含一系列基本的神经元、通过权重相互连接。神经元是人工神经网络最基本的单元。
单元以层的方式组,每一层的每个神经元和前一层、后一层的神经元连接,共分为输入层、输出层和隐藏层,三层连接形成一个神经网络。
输入层只从外部环境接收信息,是由输入单元组成,而这些输入单元可接收样本中各种不同的特征信息。该层的每个神经元相当于自变量,不完成任何计算,只为下一层传递信息
隐藏层介于输入层和输出层之间,这些层完全用于分析,其函数联系输入层变量和输出层变量,使其更配适数据。
输出层生成最终结果,每个输出单元会对应到某一种特定的分类,为网络送给外部系统的结果值
整个网络由调整链接强度(学习拓扑的权重)的程序来达成学习的目的。
- 简述反向传播算法的作用及其优势。
作用:反向传播是神经网络中用于计算代价函数梯度的一种算法。
反向传播的工作原理是计算代价函数相对于每个权重的梯度,然后在梯度的相反方向调整权重以降低代价。重复这个过程,直到成本达到最小值,简单来说就是计算出输出与标签间的损失函数值,然后计算其相对于每个神经元的梯度,根据梯度方向更新权值,是深度学习的基础技术。
反向传播算法可以减少公共子表达式的数量而不考虑存储的开销,避免了重复子表达式的指数爆炸。
使用反向传播的主要优点是快速高效,因为它可以轻松地通过网络传播并计算梯度,而无需推导复杂的方程,因此,反向传播可以实现更快的权重更新,从而提高训练神经网络的速度。此外,它利用了链式法则,允许网络的许多层同时训练。最后,反向传播在面对一些错误时是稳健的,并且能够在面对未知数据时做出明智的猜测。
- 给定输入x=1,计算表达式a=log(z)、z=x*0.5+0.5。画出其计算图并
标识前向传播与反向传播的各节点值。
到时候看题吧,应该不会考反向传播手推,如果要考,那就是对最后的结果进行求偏导,不断往后求就Ok了