1 用经典的caffe网络训练,得到一个100KB的模型,里面共存储了____个权重值
~~~~~~~ 100*1024 = 102400Byte 假设每个权重值为float变量,则有102400/4=25600个权值
2 反卷积层参数配置为:pad 2, kernel size 4, stride 3。输入feature map长宽为32,输出feature map的长宽为______
~~~~~~~ 反卷积计算公式:output=s(i-1) + k-2p (s:步长,i:输入尺寸,k:卷积核尺寸,p:padding,某一边填充的尺寸,一般为1或者2)。本题:93
3 例举边缘检测中Canny算子相比较sobel算子的三个改进点:
~~~~~~~
4 定义一二维数组int array[3][3] = {0},假设数组的首地址array的地址值用十六进制表示为0xbefffc14,那么请问array+1的地址值用十六进制表示是_______
~~~~~~~
5 int a[5] = {1, 2, 3, 4, 5};
int main{void}
{
int *p = a;
printf("%d", *p++);
printf("%d", (*p)++);
printf("%d", *++p);
printf("%d", ++*p);
}
*p++ 等价于 *(p++)—>先取(返回)指针对应的值,指针再自增1
(*p)++ —>先取(返回)指针对应的值,再把其值自增1
*++p 等价于 *(++p) —>先将指针自增1,再取(返回)其指针对应的值
++*p等价于++(*p) —>先将指针对应的值自增1,再去(返回)其自增后的值
6 使用scanf和gets函数存在______溢出的风险
~~~~~~~~ 缓冲区
7 图像处理中无损压缩的目的是(D)
A 滤除图像中的不相干信号
B 滤除图像中的高频信号
C 滤除图形中的低频信号
D 滤除图像中的冗余信号
1 有损压缩图像的特点是保持颜色的逐渐变化,删除图像中颜色的突然变化。能得到较大的压缩率
缺点:会影响图像的质量,导致质量下降,但是人眼对其区别不大,感觉不到图像太大的变化
2 无损压缩,能100%保存全部数据,没有任何信号的丢失,
8
[[1, 2, 1],
[2, 1, 0],
[1, 0, 2]] 图像中心点处水平和垂直方向的二阶梯度分别是多少?©
A (-2, -2)
B (-1, -1)
C (0, 0)
D (1, 1)
9 在数字图像的特征提取中,经常会用到Hessian矩阵来提取关键点,以下关于Hessian矩阵的描述不正确的是?(B)
A 图像上某个点的Hessian矩阵,其最大特征值对应其领域内最大曲率的强度
B 如果Hessian矩阵是负正定的,则临界点处有局部极小值
C 如果Hessian矩阵是不定矩阵,则临界点处没有极值
D Hessian矩阵的特征值,用于衡量特征向量方向的凹凸性
注:1 海森矩阵是二维正定矩阵,有两个特征值和对应的两个特征向量。两个特征值表示出了图像在两个特征向量所指方向上图像变化的各向异性。
2 当Hessian是正定的,则该临界点是局部极小点。同理,当Hessian是负正定的(所有特征值都是负的),则该临界点是局部极大点。
10 一个卷积层的卷积核大小为5×5, padding为2, stride为1, 输出通道为3,没有偏置,对于3×10×10(C×H×W)的输入,其计算量和参数量为(A)
A 22500, 225
B 7500, 75
C 2500, 25
D 27500, 275
11 以下哪个损失函数不包含难挖掘思想?(A)
A Arcface
B OHEM
C Focal Loss
D SV-Softmax
12 输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,输出特征图大小为_______
~~~~~~ 97。padding=1就是在每一边添加0,为0就是不添加0,为2就是添加两个0
13 LR和SVM的联系和区别
- 联系:
- LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题
- 两个方法都可以增加不同的正则项,如L1、L2正则项
- 区别
- LR是参数模型,SVM是非参数模型
- 从损失函数来看,LR使用的是交叉熵损失函数,SVM使用的是hinge损失函数,这两个损失函数的目的都是增加对分类影响较大的样本点的权重,减小与分类关系比较小的数据的权重。
- SVM的处理方法只考虑支持向量,也就是只考虑和分量最相关的少数样本点来学习分类器。而逻辑回归通过非线性映射,大大减小了离分离超平面远的样本点权重,相对提升了与分类最相关的样本点的权重。
- LR模型相对来说简单好理解,一般用于大规模的线性分类。SVM的理解和优化比较复杂,在处理复制非线性分类时,使用核技巧来就算优势明显。
- LR能做的SVM也能做,但是可能准确率上有问题,但SV能做的LR做不了
14 机器学习中,为什么要经常对数据做归一化?常见的归一化方法?哪些机器学习不需要做归一化?
- 为了消除数据特征之间的量纲影响,所以进行归一化,使得不同指标之间具有可比性。
- 归一化方法有
- 线性函数归一化
- 零均值归一化
- 树结构,如决策树模型不需要归一化
- 归一化的好处:提升模型的收敛速度和提升模型的精度。所以归一化很有必要,他可以让各个特征对结果做出的贡献相同。
15 什么是过拟合、欠拟合,以及针对这两种的常用的解决方法?
过拟合主要是训练集表现很好但是测试集或者预测数据表现不好。
欠拟合训练集和测试集都表现不好
解决方法:
过拟合:
- early stopping
- 数据扩增
- 正则化,增加正则化系数
- dropout
- 挑选合适的模型
- 集成或者bagging
欠拟合
- 增加新特征,可以考虑加入进特征组合、高次特征,来增大假设空间
- 考虑用非线性模型SVM、决策树
- 减小正则化系数
- boosting,Boosting 往往会有较小的 Bias
16 LR的损失函数及其推导过程?可以用MSE作为损失函数么?为什么?逻辑回归为什么要对特征进行离散化?
17 XGBoost的基学习器是?为什么XGBoost要用泰勒展开,优势在哪里?如何处理缺失值?和GDBT的区别是?
16 梯度下降法找到的一定是下降 最快的方向么?请说明随机梯度下降法的问题和挑战?
17 常用的优化算法有哪些?以及他们的之间的优势以及适用的场景?
18 LSTM的前向和后向传播过程,为什么LSTM对比RNN可以缓解梯度上的问题?
19 什么是注意力机制?以及注意力机制的优势和劣势,如何评估注意力机制起到了预期效果?
20 强化学习是什么?和有监督学习的异同?在推荐系统中如何应用强化学习?
21 在回归模型中,下列哪一项在权衡欠拟合和过拟合中影响最大?
A 多项式阶数
B 跟新权重w时,使用的是矩阵求逆还是梯度下降
C 使用常数项
答案:C
22 假设你有以下数据:输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-One Out)交叉验证得到的均方误差是多少?
X(independent variable) | Y(dependent variable) |
---|---|
0 | 2 |
2 | 2 |
3 | 1 |
A 10/27
B 39/27
C 49/27
D 55/27
答案:C
23 下列关于极大似然估计(Maximum Likelihood Estimate,MLE),说法正确的是(多选)?
A MLE可能并不存在
B MLE总是存在
C 如果MLE存在,那么它的解可能不是唯一的
D 如果MLE存在,那么它的解一定是唯一的
答案:AC
24 如果我们说"线性回归"模型完美地拟合了训练样本(训练误差为零),则下面哪个说法是正确的?
A 测试样本误差始终为零
B 测试样本误差不可能为零
C 以上答案都不对
答案:C
解析:根据训练样本误差为零,无法推断测试样本误差是否为零。如果测试样本样本很大,则很可能发生过拟合,模型不具备很好的泛化能力
25 在一个线性回归问题中,我们使用R平方来判断拟合度。此时,如果增加一个特征,模型不变,则下面说法正确的是?
A 如果R-Squared增加,则这个特征有意义
B 如果R-Squared减小,则这个特征没有意义
C 仅看R-Squared单一变量,无法确定这个特征是否有意义。
D 以上说法都不对
答案:C
解析:线性回归问题中,R-Squared是用来衡量回归方程与真实样本输出之间的相似程度
R
2
=
1
−
∑
(
y
−
y
^
)
2
∑
(
y
−
y
‾
)
2
R^2 = 1-\frac{\sum(y-\hat{y})^2}{\sum(y-\overline{y})^2}
R2=1−∑(y−y)2∑(y−y^)2
26 下列关于线性回归分析中的残差(Residuals)说法正确的是?
A 残差均值总是为零
B 残差均值总是小于零
C 残差均值总是大于零
D 以上说法都不正确
答案:A
解析:线性回归分析中,目标是残差最小化。残差平方和是关于参数的函数,为了求残差极小值,令残差关于参数的偏导数为零,会得到残差和为零,即残差均值为零
27 下列哪些假设是我们推导线性回归参数时遵循的(多选)?
A X与Y有限性关系(多项式关系)
B 模型误差在统计学上是独立的
C 误差一般服从0均值和固定标准差的正态分布
D X是非随机且测量没有误差的
答案:ABCD
答案:A
解析:线性回归模型计算损失函数,例如均方差损失函数时,使用的都是 vertical offsets。perpendicular offsets 一般用于主成分分析(PCA)中
28 加入使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其他特征保持不变。然后重新训练测试。则下列说法正确的是?
A 训练样本准确率一定会降低
B 训练样本准确率一定增加或者保持不变
C 测试样本准确率一定会降低
D 测试样本准确率一定增加或者保持不变
答案:B
解析:在模型中增加更多特征一般会增加训练样本的准确率,减小bias。但是测试样本准确率不一定增加,除非增加的特征是有效特征。