【ML知识博文1】PyTorch vs TensorFlow:谁拥有更多预训练深度学习模型?

​众所周知,访问预先训练的深度学习模型对于当代深度学习应用至关重要。随着最先进的模型变得越来越大,达到数万亿个参数,在许多领域,尤其是自动语音识别等领域,从头开始训练高级模型不再有意义。鉴于预训练深度学习模型的重要性,哪个深度学习框架(PyTorch 或 TensorFlow)为用户提供更多此类模型是一个需要回答的重要问题。​
摘要由CSDN通过智能技术生成

专栏导读

  • 作者简介:工学博士,高级工程师,专注于工业软件算法研究
  • 本文已收录于专栏:《机器学习实用指南》本专栏旨在提供 1.机器学习经典案例及源码;2.开源机器学习训练数据集;3.机器学习前沿专业博文。以案例的形式从实用的角度出发,快速上手机器学习项目,在案例中成长,摆脱按部就班填鸭式教学。
  • 欢迎订阅专栏,订阅用户可私聊进入机器学习交流群(知识交流、问题解答),并获赠丰厚的机器学习相关学习资料(教材、源码、视频课)
  • 专栏订阅地址https://blog.csdn.net/u010542847/category_12577105.html

文章目录

专栏导读

文章目录

为什么预训练的深度学习模型很重要?

HuggingFace的统计结果

模型总数

顶级模型

结论

Papers with Code的统计结果

论文发表趋势

上季度论文比例

结论

PyTorch 官方资源

PyTorch Hub

TorchVision

TorchText

SpeechBrain

TensorFlow 官方资源

TensorFlow Hub

MediaPipe

最后的话


 众所周知,访问预先训练的深度学习模型对于当代深度学习应用至关重要。随着最先进的模型变得越来越大,达到数万亿个参数,在许多领域,尤其是自动语音识别等领域,从头开始训练高级模型不再有意义。

鉴于预训练深度学习模型的重要性,哪个深度学习框架(PyTorch TensorFlow)为用户提供更多此类模型是一个需要回答的重要问题。

在本文中,我们将定量地探讨这个主题,以便您可以随时了解深度学习领域的当前状态。

为什么预训练的深度学习模型很重要?

特别是对于自然语言处理等复杂的应用程序,模型的大小和复杂性阻碍了工程和优化过程,从头开始构建最先进的 (SOTA) 模型的能力对于大多数人来说都是不可能完成的任务。

OpenAI 的范式转变 GPT-3 拥有超过 1750 亿个参数;如果这还不够,它的后继者GPT-4 的参数大几个数量级, GPT-4 拥有超过 100 万亿个参数。

由于这种模型的增长,小型企业在其工作流程中只能依赖于预先训练的深度学习模型,用于直接开箱即用的推理、微调或迁移学习。

在模型可用性方面,PyTorch TensorFlow 存在巨大的不同。 本文将定量研究这两个深度学习框架的模型可用性,以了解它们的比较情况。

HuggingFace的统计结果

HuggingFace的迅速崛起表明了对预训练深度学习模型的需求,该公司最近在 B 轮融资中筹集了4000 万美元 HuggingFace 的流行和快速增长可归因于其易用性,只需几行代码即可访问 SOTA 模型。

当我们按框架(

  • 30
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值