(计算机视觉)(笔试—面试)真题

1 用经典的caffe网络训练,得到一个100KB的模型,里面共存储了____个权重值

        ~~~~~~~         100*1024 = 102400Byte 假设每个权重值为float变量,则有102400/4=25600个权值

2 反卷积层参数配置为:pad 2, kernel size 4, stride 3。输入feature map长宽为32,输出feature map的长宽为______

        ~~~~~~~        反卷积计算公式:output=s(i-1) + k-2p (s:步长,i:输入尺寸,k:卷积核尺寸,p:padding,某一边填充的尺寸,一般为1或者2)。本题:93

3 例举边缘检测中Canny算子相比较sobel算子的三个改进点:

        ~~~~~~~        

4 定义一二维数组int array[3][3] = {0},假设数组的首地址array的地址值用十六进制表示为0xbefffc14,那么请问array+1的地址值用十六进制表示是_______

        ~~~~~~~        

5 int a[5] = {1, 2, 3, 4, 5};

int main{void}
{
int *p = a;
printf("%d", *p++);
printf("%d", (*p)++);
printf("%d", *++p);
printf("%d", ++*p);
}

*p++ 等价于 *(p++)—>先取(返回)指针对应的值,指针再自增1
(*p)++ —>先取(返回)指针对应的值,再把其值自增1
*++p 等价于 *(++p) —>先将指针自增1,再取(返回)其指针对应的值
++*p等价于++(*p) —>先将指针对应的值自增1,再去(返回)其自增后的值

6 使用scanf和gets函数存在______溢出的风险

         ~~~~~~~~         缓冲区

7 图像处理中无损压缩的目的是(D)

A 滤除图像中的不相干信号
B 滤除图像中的高频信号
C 滤除图形中的低频信号
D 滤除图像中的冗余信号

1 有损压缩图像的特点是保持颜色的逐渐变化,删除图像中颜色的突然变化。能得到较大的压缩率
缺点:会影响图像的质量,导致质量下降,但是人眼对其区别不大,感觉不到图像太大的变化
2 无损压缩,能100%保存全部数据,没有任何信号的丢失,

8

[[1, 2, 1],
[2, 1, 0],
[1, 0, 2]] 图像中心点处水平和垂直方向的二阶梯度分别是多少?©
A (-2, -2)
B (-1, -1)
C (0, 0)
D (1, 1)

9 在数字图像的特征提取中,经常会用到Hessian矩阵来提取关键点,以下关于Hessian矩阵的描述不正确的是?(B)

A 图像上某个点的Hessian矩阵,其最大特征值对应其领域内最大曲率的强度
B 如果Hessian矩阵是负正定的,则临界点处有局部极小值
C 如果Hessian矩阵是不定矩阵,则临界点处没有极值
D Hessian矩阵的特征值,用于衡量特征向量方向的凹凸性

注:1 海森矩阵是二维正定矩阵,有两个特征值和对应的两个特征向量。两个特征值表示出了图像在两个特征向量所指方向上图像变化的各向异性。
2 当Hessian是正定的,则该临界点是局部极小点。同理,当Hessian是负正定的(所有特征值都是负的),则该临界点是局部极大点。

10 一个卷积层的卷积核大小为5×5, padding为2, stride为1, 输出通道为3,没有偏置,对于3×10×10(C×H×W)的输入,其计算量和参数量为(A)

A 22500, 225
B 7500, 75
C 2500, 25
D 27500, 275

11 以下哪个损失函数不包含难挖掘思想?(A)

A Arcface
B OHEM
C Focal Loss
D SV-Softmax

12 输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,输出特征图大小为_______

       ~~~~~~        97。padding=1就是在每一边添加0,为0就是不添加0,为2就是添加两个0

13 LR和SVM的联系和区别
  • 联系:
    • LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题
    • 两个方法都可以增加不同的正则项,如L1、L2正则项
  • 区别
    • LR是参数模型,SVM是非参数模型
    • 从损失函数来看,LR使用的是交叉熵损失函数,SVM使用的是hinge损失函数,这两个损失函数的目的都是增加对分类影响较大的样本点的权重,减小与分类关系比较小的数据的权重。
    • SVM的处理方法只考虑支持向量,也就是只考虑和分量最相关的少数样本点来学习分类器。而逻辑回归通过非线性映射,大大减小了离分离超平面远的样本点权重,相对提升了与分类最相关的样本点的权重。
    • LR模型相对来说简单好理解,一般用于大规模的线性分类。SVM的理解和优化比较复杂,在处理复制非线性分类时,使用核技巧来就算优势明显。
    • LR能做的SVM也能做,但是可能准确率上有问题,但SV能做的LR做不了
14 机器学习中,为什么要经常对数据做归一化?常见的归一化方法?哪些机器学习不需要做归一化?
  • 为了消除数据特征之间的量纲影响,所以进行归一化,使得不同指标之间具有可比性。
  • 归一化方法有
    • 线性函数归一化
    • 零均值归一化
  • 树结构,如决策树模型不需要归一化
  • 归一化的好处:提升模型的收敛速度和提升模型的精度。所以归一化很有必要,他可以让各个特征对结果做出的贡献相同。
15 什么是过拟合、欠拟合,以及针对这两种的常用的解决方法?

过拟合主要是训练集表现很好但是测试集或者预测数据表现不好。
欠拟合训练集和测试集都表现不好
解决方法:
过拟合:

  • early stopping
  • 数据扩增
  • 正则化,增加正则化系数
  • dropout
  • 挑选合适的模型
  • 集成或者bagging

欠拟合

  • 增加新特征,可以考虑加入进特征组合、高次特征,来增大假设空间
  • 考虑用非线性模型SVM、决策树
  • 减小正则化系数
  • boosting,Boosting 往往会有较小的 Bias
16 LR的损失函数及其推导过程?可以用MSE作为损失函数么?为什么?逻辑回归为什么要对特征进行离散化?
17 XGBoost的基学习器是?为什么XGBoost要用泰勒展开,优势在哪里?如何处理缺失值?和GDBT的区别是?
16 梯度下降法找到的一定是下降 最快的方向么?请说明随机梯度下降法的问题和挑战?
17 常用的优化算法有哪些?以及他们的之间的优势以及适用的场景?
18 LSTM的前向和后向传播过程,为什么LSTM对比RNN可以缓解梯度上的问题?
19 什么是注意力机制?以及注意力机制的优势和劣势,如何评估注意力机制起到了预期效果?
20 强化学习是什么?和有监督学习的异同?在推荐系统中如何应用强化学习?
21 在回归模型中,下列哪一项在权衡欠拟合和过拟合中影响最大?

A 多项式阶数
B 跟新权重w时,使用的是矩阵求逆还是梯度下降
C 使用常数项
答案:C

22 假设你有以下数据:输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-One Out)交叉验证得到的均方误差是多少?
X(independent variable)Y(dependent variable)
02
22
31

A 10/27
B 39/27
C 49/27
D 55/27
答案:C

23 下列关于极大似然估计(Maximum Likelihood Estimate,MLE),说法正确的是(多选)?

A MLE可能并不存在
B MLE总是存在
C 如果MLE存在,那么它的解可能不是唯一的
D 如果MLE存在,那么它的解一定是唯一的
答案:AC

24 如果我们说"线性回归"模型完美地拟合了训练样本(训练误差为零),则下面哪个说法是正确的?

A 测试样本误差始终为零
B 测试样本误差不可能为零
C 以上答案都不对
答案:C
解析:根据训练样本误差为零,无法推断测试样本误差是否为零。如果测试样本样本很大,则很可能发生过拟合,模型不具备很好的泛化能力

25 在一个线性回归问题中,我们使用R平方来判断拟合度。此时,如果增加一个特征,模型不变,则下面说法正确的是?

A 如果R-Squared增加,则这个特征有意义
B 如果R-Squared减小,则这个特征没有意义
C 仅看R-Squared单一变量,无法确定这个特征是否有意义。
D 以上说法都不对
答案:C
解析:线性回归问题中,R-Squared是用来衡量回归方程与真实样本输出之间的相似程度
R 2 = 1 − ∑ ( y − y ^ ) 2 ∑ ( y − y ‾ ) 2 R^2 = 1-\frac{\sum(y-\hat{y})^2}{\sum(y-\overline{y})^2} R2=1(yy)2(yy^)2

26 下列关于线性回归分析中的残差(Residuals)说法正确的是?

A 残差均值总是为零
B 残差均值总是小于零
C 残差均值总是大于零
D 以上说法都不正确
答案:A
解析:线性回归分析中,目标是残差最小化。残差平方和是关于参数的函数,为了求残差极小值,令残差关于参数的偏导数为零,会得到残差和为零,即残差均值为零

27 下列哪些假设是我们推导线性回归参数时遵循的(多选)?

A X与Y有限性关系(多项式关系)
B 模型误差在统计学上是独立的
C 误差一般服从0均值和固定标准差的正态分布
D X是非随机且测量没有误差的
答案:ABCD

在这里插入图片描述
答案:A
解析:线性回归模型计算损失函数,例如均方差损失函数时,使用的都是 vertical offsets。perpendicular offsets 一般用于主成分分析(PCA)中

28 加入使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其他特征保持不变。然后重新训练测试。则下列说法正确的是?

A 训练样本准确率一定会降低
B 训练样本准确率一定增加或者保持不变
C 测试样本准确率一定会降低
D 测试样本准确率一定增加或者保持不变
答案:B
解析:在模型中增加更多特征一般会增加训练样本的准确率,减小bias。但是测试样本准确率不一定增加,除非增加的特征是有效特征。

  • 4
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
嵌入式岗位的笔试面试通常会涉及以下几个方面: 1. 嵌入式系统原理:涉及到嵌入式系统的基本原理、硬件与软件的关系、中断处理、存储器管理、任务调度等。面试官可能会问你关于嵌入式系统的基础知识和相关概念的问题。 2. C语言编程:C语言是嵌入式开发中最常用的编程语言,面试官可能会考察你对C语言的掌握程度。常见的问题包括指针、数组、结构体、位运算等方面的问题,以及C语言中常见的编程技巧和陷阱。 3. 操作系统:嵌入式系统通常会运行在实时操作系统(RTOS)上,所以对于操作系统的基本原理和常用功能要有一定的了解。面试官可能会问你关于任务调度、进程间通信、内存管理等方面的问题。 4. 协议与接口:嵌入式系统通常需要与外部设备进行通信,因此对于常见的通信协议和接口标准要有所了解。例如UART、SPI、I2C、CAN等协议,以及GPIO、ADC、PWM等接口。面试官可能会问你如何使用这些协议和接口来实现某些功能。 5. 硬件知识:嵌入式系统开发离不开硬件,所以对于常见的硬件知识要有所了解。例如微处理器、存储器、外设等。面试官可能会问你关于硬件的基本原理、特性和使用方法的问题。 当然,具体的面试题目和难度会根据不同公司和职位要求而有所不同。建议你在准备面试时,多关注相关技术文档和经典教材,并进行一些实际的项目经验积累来提升自己的实践能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值