深度学习-在线推断(Inference)技术

    深度学习一般分为训练和在线推断两个部分,大家平时经常关注的多为训练阶段,也就是搜索和求解模型最优参数的阶段。而当模型参数已经求解出来,如何使用模型,以及在在线环境中部署模型,也是非常重要的。

    一般会比较关注其中的一些技术点:

  •     访问延迟
  •     吞吐量
  •     模型版本管理
  •     DevOps


   大公司较为倾向自己造轮子,而小公司更倾向于用开源方案。

    1 软件层:

    1.1 Tensorflow Serving:

TensorFlow Serving 是一个用于机器学习模型 serving 的高性能开源库。它可以将训练好的机器学习模型部署到线上,使用 gRPC 作为接口接受外部调用。更加让人眼前一亮的是,它支持模型热更新与自动模型版本管理。这意味着一旦部署 TensorFlow Serving 后,你再也不需要为线上服务操心,只需要关心你的线下模型训练。

    1.2 Nginx等服务软件。

    1.3 或采用自研Model Serving服务器。

    2 硬件层:

    CPU方案:较为常用方式。

    GPU方案:英伟达也推出了适合在线推断场景的GPU型号。

    FPGA方案:一些公有云厂商尝试尝试退出FPGA在线推断的云服务ÿ

### 回答1: 在深度学习推断Inference)是指使用训练好的模型对新的数据进行预测或分类的过程。当我们训练好一个深度学习模型后,我们希望这个模型可以在未见过的数据上表现良好。因此,我们需要将新的数据输入到模型进行推断,以便输出相应的结果。在推断过程,模型会根据之前学习到的规律和特征进行计算和预测,从而得出最终的结论。推断深度学习应用的一项重要技术,例如图像分类、语音识别、自然语言处理等领域都需要进行推断。 ### 回答2: 在深度学习推断是指使用已经训练好的神经网络模型来对新的未知数据进行预测或分类的过程。推断过程不涉及模型参数的更新和优化,而是利用已经训练好的模型来对新数据进行预测。 在深度学习,神经网络模型通常通过大量的数据进行训练,以学习输入数据和对应的输出之间的模式关系。训练过程,模型通过调整参数来最小化预测输出与真实标签之间的差距。一旦模型训练完成,就可以将其应用于新的数据,进行推断推断时,新的数据样本被输入到训练好的模型,模型通过前向传播的方式将输入数据从输入层传递到输出层,得到相应的预测结果。这个过程不像训练过程那样需要进行反向传播和参数更新,而只是简单地使用已经训练好的模型进行数据分类或预测。 推断深度学习扮演着重要的角色,它是将模型应用于真实世界数据的必要步骤。通过推断深度学习模型可以用于解决各种任务,如图像识别、语音识别、自然语言处理等。推断的效果好坏直接影响着模型的应用价值和使用效果。 总之,深度学习推断是利用已经训练好的神经网络模型对新的未知数据进行预测或分类的过程,它是将模型应用到真实数据的关键环节。 ### 回答3: 在深度学习推断是指利用已经训练好的模型,将输入数据映射到预测输出的过程。推断阶段通常用于真实场景应用模型进行预测,即根据已有的模型权重对新的数据进行处理并得出结果。在推断过程,输入数据通过神经网络层层传递并进行计算,最终得到输出结果。推断的目的是利用训练好的模型对未知的输入数据进行预测或分类。 推断相比于模型训练更为轻量级和快速,因为推断不需要进行反向传播和权重更新等计算。在深度学习应用,通常会将模型的训练和推断分离,即先对模型进行训练优化,然后将训练好的模型用于推断任务。推断可以高效地处理大规模的数据集,并且可以实时地对新数据进行处理和预测。随着硬件和软件的发展,现代深度学习框架提供了高效的推断方法,使得推断可以在不同平台上进行部署和应用。 深度学习推断在许多领域有广泛的应用,如图像分类、语音识别、自然语言处理等。通过将推断技术应用到实际问题,可以实现诸如图像识别、语音转文字、智能推荐等智能化的应用。推断的结果可以为决策提供依据,改善生产效率、提高精度和准确性。推断深度学习扮演着重要的角色,为人工智能的发展提供了有力的支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值