长银58面试总结(听别人说的)

1.自我介绍

2.回答线性回归和逻辑回归:

线性回归:

线性回归是一种用于建模输入变量(特征)和连续输出变量之间关系的方法。它基于线性假设,试图找到最佳的线性拟合线来描述特征和输出之间的关系。线性回归的目标是最小化实际输出与预测输出之间的平方差,通常使用均方误差(MSE)作为损失函数。在深度学习中,线性回归可以用于简单的回归问题,例如预测房价、温度等连续变量。然而,线性回归不适用于分类问题,因为其输出不会被限制在特定的范围内(如0到1之间)。

逻辑回归:

尽管名为“回归”,但逻辑回归实际上是一种分类算法,用于解决二分类问题。逻辑回归通过应用逻辑函数(也称为sigmoid函数)将线性输出映射到0和1之间的概率值,表示一个样本属于某一类别的概率。逻辑回归的输出可以被解释为样本属于某一类别的概率,当概率超过一个阈值时,可以将样本分类为该类别。逻辑回归使用的损失函数通常是对数损失(也称为交叉熵损失),它是衡量模型预测和实际标签之间差异的度量。

在深度学习中,逻辑回归常用作神经网络的输出层,尤其在二分类问题中。在多类别分类问题中,可以通过扩展逻辑回归为多类别逻辑回归或使用softmax回归来解决。

总结:

  • 线性回归: 用于建模连续输出变量和输入特征之间的线性关系。
  • 逻辑回归: 用于解决二分类问题,通过将线性输出映射到概率值,可用于输出层进行分类任务。

3、回答loss:

度学习中的损失函数(Loss Function)是用来衡量模型预测值与实际标签之间的差异或误差的函数。损失函数在训练过程中起着重要的作用,它是优化算法的指导,帮助模型逐步调整权重和参数,使得模型的预测逐渐接近真实标签。损失函数在训练过程中与优化算法一起,帮助模型通过反向传播算法来更新参数,以最小化预测误差,从而提高模型的性能。

交叉熵损失函数的特点:

  1. 适用于分类问题: 交叉熵损失函数主要用于分类任务,特别是多类别分类问题。它能够衡量模型预测的概率分布与真实标签的分布之间的差异。

  2. 表达多样性: 交叉熵损失函数考虑了预测概率的多样性。它鼓励模型在正确类别上的预测概率尽量接近1,而在错误类别上的预测概率尽量接近0,从而推动模型更加自信和准确地进行分类。

  3. 数学性质: 交叉熵损失函数具有良好的数学性质,包括严格的非负性和凸性,这使得它在优化过程中易于处理和求解。

  4. 梯度下降: 交叉熵损失函数的梯度相对容易计算,这对于使用梯度下降等优化算法来更新模型的权重和参数非常有帮助。

  5. 推动概率预测: 交叉熵损失函数对于概率预测有着明确的推动作用。模型通过最小化交叉熵损失,更有可能将正确类别的预测概率提高,而将错误类别的预测概率降低。

  6. 敏感性: 交叉熵损失函数对于预测概率中的大误差更为敏感。这意味着,当模型对某个类别的预测概率远离实际标签时,损失函数的值会显著增加,从而强制模型对错误的预测进行纠正。

  7. 解决类别不平衡问题: 交叉熵损失函数在一些变体中(如加权交叉熵损失)可以用来处理类别不平衡问题,使得模型更好地适应样本数量不均衡的情况

4、讲一下激活函数:

激活函数(Activation Function)是深度学习神经网络中的关键组件,它的作用如下:

  1. 引入非线性性: 激活函数引入了非线性性,使得神经网络能够学习和表示更加复杂的函数。如果没有非线性激活函数,多层神经网络将只能表示线性变换,无法捕捉数据中的非线性关系。

  2. 增加网络的表达能力: 非线性激活函数增加了神经网络的表达能力,使其能够逼近任意复杂的函数。通过堆叠多个非线性层,神经网络可以逐步提取和学习数据的抽象特征,从而实现更高级的任务。

  3. 模拟生物神经元的激活行为: 激活函数模拟了生物神经元的激活行为,使得神经网络更加接近人类大脑的工作方式。不同的激活函数可以模拟不同类型的神经元行为,如兴奋性、抑制性等。

  4. 解决梯度消失问题: 一些激活函数(如ReLU及其变种)能够在正区间内保持梯度不为零,有助于减轻梯度消失问题,使得深层网络能够更好地进行反向传播和优化。

  5. 稀疏激活性: 一些激活函数(如稀疏自编码器中使用的稀疏性约束)可以引入稀疏激活性,使得网络中的神经元只有少数几个处于激活状态,从而更加有效地进行特征选择和降维。

  6. 限制输出范围: 一些激活函数(如Sigmoid和Tanh)的输出范围在0到1或者-1到1之间,有助于控制输出的幅度,从而对输入数据进行归一化和约束。

  7. 常见的激活函数包括Sigmoid、Tanh、ReLU(Rectified Linear Unit)、Leaky ReLU、Parametric ReLU、ELU(Exponential Linear Unit)、Swish等

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值