机器学习,深度学习,自然语言处理专项练习记录-01
- 构建一个神经网络,将前一层的输出和它自身作为输入。下列哪一种架构有反馈连接?
A. 循环神经网络
B. 卷积神经网络
C. 受限玻尔兹曼机
D. 都不是
答案:A
解析:RNN的结构定义就是具有反馈层的,这样才成功实现了记忆功能。 CNN并不具备反馈,它本质是一种前馈的网络,而受限波尔兹曼机,它的结构和全连接网络一样,只不过内部计算的方式不同。
-
深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大量的矩阵相乘,现在需要计算三个稠密矩阵A,B,C 的乘积ABC,假设三个矩阵的尺寸分别为m∗n,n∗p,p∗q,且m <n < p < q,以下计算顺序效率最高的是()
A. (AB)C
B. AC(B)
C. A(BC)
D. 所有效率都相同
答案A
解析: 矩阵相乘运算次数可以理解为结果矩阵的元素个数与每个元素所需次数的乘积 对于选项A,次数为mpn + mqp 对于选项C,次数为nqp + mqn 两数相减,合并,根据大小关系得出A更小。 -
在大规模的语料中,挖掘词的相关性是一个重要的问题。以下哪一个信息不能用于确定两个词的相关性。
A. 互信息
B. 最大熵
C. 卡方检验
D. 最大似然比
答案B
解析: 最大熵代表了整体分布的信息,通常 具有最大熵的分布作为该随机变量的分布, 不能体现两个词的相关性
互信息是一个随机变量中包含的关于另一个随机变量的信息量,很明显是可以的,卡方检验是检验两类事务发生的相关性,也是可以的,最大似然比就不说了,里面包含了最大似然,而最大似然被广泛应用到语言模型中,那必然是可以的。
-
在CNN网络中,图A经过核为3x3,步长为2的卷积层,ReLU激活函数层,BN层,以及一个步长为2,核为22的池化层后,再经过一个33的的卷积层,步长为1,此时的感受野是()
A. 10
B. 11
C. 12
D. 13
答案 D
解析:感受野的意思是现在的一个像素对应原来的多少个像素
计算一波,原本的计算计算公式为 [(input_size+2padding-kernel_size)/stride ]+1
此时我们需要倒推,则原先的size = (output_size -1)stride +kernel_size ,一下为具体补助
“再经过一个33的的卷积层,步长为1”,则现在的1像素对应原来的33个像素
“一个步长为2,核为22的池化层”,那个33应该对应的是 66
再到最开始的 “核为3x3,步长为2的卷积层”,那个得到的应该是13 -
下列指标中,有哪些指标可用于模型评估()
A. 准确率(Accuracy)
B. 精确率(Precision)
C. 召回率(Recall)
D. 均方根误差(RMSE)
答案:ABCD
解析略,过分基础了。