人工智能面试总结(1)——基础理论
该面经总结了春招/秋招各厂高频面试八股,除开围绕简历扣项目细节,公司最喜欢问的还是这些经典算法中涉及的知识点。
人工智能面试-题目指路
(一)基础理论
说说你项目中怎么选择开发平台的?
- 选择开发平台的考虑因素包括:平台的支持性、可扩展性、易用性、性能、社区支持等。
说说你怎么进行超参数调优的?
- 超参数调优的过程包括:选择合适的超参数搜索算法、确定超参数搜索范围、设置评价指标、运行超参数搜索算法、选择最优超参数组合。
说说为什么需要Batch Size?
- Batch Size的目的是为了在训练过程中将数据分成一批一批进行训练,可以提高训练效率和模型收敛速度。
说说归一化的目的?
- 归一化的目的是为了将输入数据转化为具有相似分布的数据,使得模型更容易学习和泛化,同时可以避免梯度消失或爆炸。
说说局部最优与全局最优?
- 局部最优是指在当前搜索空间中找到的最优解,而全局最优是指在整个搜索空间中找到的最优解。
说说监督学习与非监督学习的区别?
- 监督学习和非监督学习的区别在于是否需要标注数据。监督学习需要标注数据作为训练样本,而非监督学习不需要标注数据,通常使用无监督的方法学习数据的内在结构。
说说监督学习有哪些步骤?
- 监督学习的步骤包括:准备数据、选择模型、定义损失函数、训练模型、评估模型、使用模型。
说说为什么神经网络越来越深?
- 神经网络越来越深是因为深度网络可以表达更加复杂的特征和模式,从而提高模型的性能。
说说神经网络变深的意义?
- 神经网络变深的意义在于可以提高模型的准确率、泛化能力和鲁棒性,从而更好地适应不同的任务和场景。
说说为什么深度神经网络较浅层网络难以训练?
- 深度神经网络较浅层网络难以训练的原因是梯度消失或爆炸、过拟合等问题,可以通过预训练、正则化、Batch Normalization等方法解决。
说说超参数搜索过程?
- 超参数搜索过程包括:选择搜索算法、确定搜索范围、设置评价指标、运行搜索算法、选择最优超参数组合。
说说什么是模型微调Finetuning?
- 模型微调(Finetuning)是指使用已经训练好的模型进行进一步训练,以适应新的任务或数据集。
说说Finetuning时是否会更新网络参数,为什么?
- 在Finetuning时会更新网络参数,因为新任务可能需要调整原来的权重和偏置。
说说Finetuning模型有哪些方法?
- Finetuning模型的方法包括在已有模型基础上微调全连接层、微调卷积层、微调整个网络等。
说说误差、噪声、偏差、方差的区别与联系?
-
误差是预测结果与实际结果之间的差异,包括偏差和方差。
偏差是指模型对真实情况的偏离程度,
方差是指模型在不同训练集上的预测结果变化的程度。
噪声是指数据中的随机误差,不可避免地影响模型的性能。
偏差和方差的平衡是训练模型的一个重要目标,过高或过低的偏差或方差都会导致模型的性能下降。
说说嫡是什么?
- 嫡(dropout)是一种正则化方法,用于减少神经网络中的过拟合问题。在嫡方法中,每个神经元以一定的概率被随机丢弃,使得网络的一部分神经元失活,强制让网络学习到更加鲁棒的特征。
说说梯度消失、爆炸的解决方案?
- 梯度消失和爆炸是深度神经网络中常见的问题,会导致训练过程不稳定和模型性能下降。梯度消失的解决方案包括使用激活函数、归一化、残差连接等方法,以增强梯度信号的传递;梯度爆炸的解决方案包括梯度裁剪、学习率衰减等方法,以避免梯度过大导致训练过程不稳定。
说说深度学习为什么不用二阶优化?
- 深度学习不使用二阶优化的原因在于,深度神经网络通常具有大量参数,导致计算复杂度非常高,同时梯度矩阵的维度也非常大,导致计算和存储成本巨大。因此,深度学习通常采用基于梯度的一阶优化方法,如随机梯度下降(SGD)等。此外,基于梯度的一阶优化方法也已经被证明在大多数情况下可以获得良好的性能。