「软件」2.0时代已经到来,你需要这样的开发工具

540 篇文章 14 订阅
30 篇文章 0 订阅

互联网催生了软件的繁荣,而在AI浪潮的推动下,软件正在朝着更「智能」的方向发展,也就是「软件2.0」时代。「软件2.0」其实就是神经网络,也就是这一波AI浪潮的基石。

在「软件1.0」时代,程序员用Java、Python、C++等语言编写计算机命令,每写下一行代码,就把程序空间中的某个具体的点定义为一个需要的行为。

而「软件2.0」时代,神经网络的呈现方式是神经网络的权重,解决问题的Workflow也被重新塑造,变成定义问题,收集数据,训练神经网络的权重,最后获得输出,人类编写软件的方式也因此发生根本性的改变。

「软件2.0」重新定义硬件

如今“软件定义硬件”正在引发各个行业的变革,我们正步入一个「万物皆可互联、一切皆可编程」的新时代。而“软件定义一切”也将成为科技发展的重要推手,极大地提高各行各业的智能化程度和整个社会的智能化水平。

例如「软件1.0」时代,手机已经成为一个标准的计算平台,手机与手机之间的差异性更多的体现在操作系统和软件生态上。

进入「软件2.0」时代,端侧的硬件更多元,由于天然的封闭性和无法实时升级,因此要通过AI实现对硬件的智能化改造。

例如AI对鼠标这种标准硬件的智能化改造。作为一款标准硬件产品,鼠标本身并不具备多大的想象空间,然而在AI的加持下,鼠标也可以实现更多智能化的功能。例如罗技与百度进行合作,实现了鼠标的多国语言的语音输入。

而在电动车蓬勃发展的当下,汽车硬件也正在走向标准化、同质化。以往汽车厂商的关注点更多是动力、外形设计等,但是随着消费者越来越关注汽车的智能化体验,因此未来汽车也需要借助AI的力量进行智能化改造,包括智能座舱、智能驾驶等等。

可以发现,「软件2.0」时代,被AI改造的世界正在变得更加智能,硬件也在被重新定义。以百度为代表的科技公司已经全力押注AI,并大力推动AI的落地,来实现各行各业的智能化升级,例如搭载小度的智能音箱正在改变我们的交互方式,搭载Apollo的智能汽车正在重塑我们的交通出行,这些都是AI重新定义硬件的最佳实践。

「软件2.0」时代的开发工具

然而AI软件的落地离不开「智能时代的操作系统」——深度学习框架。随着AI浪潮的不断推进,深度学习框架已经成为AI赋能落地各类行业场景,帮助更多企业实现智能化应用,加速产业智能化转型的基础底座。

因此,对于开发者来说,深度学习框架的选择至关重要,一个能够满足AI从开发到落地全流程的框架可以节省大量开发时间,帮助开发者一站式实现AI生产。目前在国产深度学习框架市场中,百度的飞桨已经占据了领先地位。

好的工具才能事半功倍,飞桨作为我国首个开源开放的深度学习平台,经过多年的更新迭代,已经成为集开发便捷的核心框架、超大规模深度学习模型训练、多端多平台部署的高性能推理引擎、覆盖多领域的产业级模型库四大领先技术于一体的「智能时代操作系统」。

为了降低开发者的使用门槛,百度针对飞桨框架做了大量的优化工作,特别是动态图、API等方面的优化,真正从开发者的角度出发,方便开发者使用。

1、完善的动态图以及动静转换:同时拥有PyTorch的灵活和TensorFlow的性能

由于动态图对开发者的友好性,飞桨框架于2019年初开始在推进动态图功能,目前动态图功能已经基本完备。据了解,飞桨框架2.0 支持用户使用动态图完成深度学习相关领域全类别的模型算法开发。

同时考虑到模型部署时的性能问题,飞桨框架提供了全面完备的动转静支持。开发者在动态图编程调试的过程中,仅需添加一个装饰器,即可无缝平滑地自动实现静态图训练或模型保存。

2、清晰简洁的API体系:提升开发者的使用体验

API是用户使用深度学习框架的直接入口,对开发者使用体验起着至关重要的作用,TensorFlow 2.0就因为混乱的API体系而被诟病,因此飞桨框架对API体系进行了全面的优化。

其高层API与基础API采用一体化设计,即在编程过程中可以同时使用高层API与基础API,让开发者可以在简捷开发与精细化调优之间自由定制。此外,开发者可以通过class和functional两种形式的API来模块化的组织代码和搭建网络,提高开发效率。

3、产业级应用模型:让应用落地更简单

相比于其他框架,在AI项目开发和落地过程中,开发者需要使用深度学习框架来实现深度学习算法,但当前框架和开源算法,更多偏向于学术,实际工业场景中,会遇到压缩、部署、性能优化等方面的问题,因此飞桨研发并开放了270多个产业级应用模型,涵盖自然语言处理、计算机视觉、推荐引擎等多个领域,来帮助开发者实现大规模的AI应用落地。

4、从BMLEasyDL:让AI开发门槛从最低到更低

为了实现一站式AI开发,飞桨针对算法工程师或者有高度定制化要求的企业,推出了BML全功能AI开发平台,实现从数据源管理、数据标注、数据管理、数据预处理、模型训练,到模型管理、预测服务管理、监控服务等全AI工作周期管理,提供更完善的开发环境,满足高阶开发者灵活和个性化开发需求。

同时,为了践行「AI for Everyone」的理念,必须要把AI开发的门槛降到最低。因此飞桨还提供了EasyDL零门槛AI开发平台,面向AI零算法基础或追求高效率开发的企业用户及开发者,最快5分钟即可上手,10分钟完成模型训练,真正实现零门槛。

此外,相比国外同类产品,飞桨框架作为国产框架,在技术上也有很多领先和独到的地方,特别是其对模型大规模分布式训练的完备支持,以及对模型工业部署的大力优化。

大规模分布式训练:随着GPT-3之类超大模型的出现,越来越多企业和科研机构需要训练此类模型,这需要框架支持模型并行、流水并行等技术,但PyTorch自身对并行训练的支持并不完善,目前依然需要借助外部插件。而飞桨的英文名“PaddlePaddle” 正是 “Parallel Distributed Deep Learning” 并行分布式深度学习的字母缩写组合。飞桨不仅在业内最早支持了万亿级稀疏参数模型的训练能力,而且近期又提出了4D混合并行策略,以训练千亿级稠密参数模型,可以说分布式训练是飞桨最具特色的技术之一。

模型生产部署:虽然PyTorch在学术界应用甚广,但是其在部署方面却不尽如人意。虽然目前PyTorch提供了C++接口,但是很多企业依旧会自己写一套框架将PyTorch模型转成高性能的C++模型去上线,导致模型的部署成本较高,或者通过Pytorch-ONNX-TensorRT这一技术路线部署到服务器,但是又会在模型转换的工程中碰到很多问题。而作为源于产业实践的开源深度学习平台,对工业部署的支持正是飞桨的突出特性。针对服务器端的部署环境,飞桨提供了Paddle Inference和Paddle Serving两种部署方案,其中Paddle Inference可应用于本地服务器端部署场景,做到即训即用,而Paddle Serving则主要针对云端场景。此外,飞桨还有用于移动端和IoT等场景的端侧部署工具Paddle Lite,并不断更新迭代,以满足高性能、轻量化的部署需求。

以飞桨为基石,百度构建了完整AI生态,并在医疗、汽车、家居等诸多领域进行了布局。今年2月,百度在最新财报中首次将自己称为“AI 生态型公司”。据介绍,目前飞桨已吸引了265万开发者,服务10万多家企业,创建了超过34万个模型,正在初步实现「软件2.0」重新定义实体世界的宏大愿景。百度的AI正迎来收获期,而背后的飞桨正在一起腾飞。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值