新冠疫情全球爆发、美股10天4次熔断,2020年3月,注定是个要被记录世界历史的时刻。或许多年以后再次回想,2020年3月仍令我们记忆犹新。
对于“两耳不闻窗外事、一心只穿格子衫”的中国开发者而言,若干年后,这一时刻同样也令他们怀念。
不过他们怀念的,是今年3月的国产AI框架开源热,使得未来AI在国内将像现在的水电般,随地可见、随处可用。(注:下文所称的AI框架均指深度学习框架)
不止华为在开源
3月28日,即华为开发者大会2020(Cloud)第二天,华为宣布全场景AI计算框架MindSpore正式开源,4月份开始公测。
据华为MindSpore首席科学家、IEEE Fellow陈雷教授介绍,MindSpore主要具备以下特性:原生适应端、边、云全场景,可按需协同;AI算法即代码,通过自动微分、自动运行、自动调优,使得代码量减少20%,效率提升50%;通过自身技术创新及MindSpore与昇腾AI处理器的协同优化,实现运行态的高效,提高计算性能;对GPU、CPU等其它处理器的支持。
其实,在2019年8月的华为发布会上,华为轮值董事长徐直军便发布了MindSpore。早在2018年10月华为全联接大会上,华为便首次发布AI战略与全栈全场景AI解决方案,并提出AI框架应该是开发态友好(例如减少训练时间和成本)和运行态高效(例如最少资源和最高能效比),且能够适应包括端、边缘和云的每个场景。
今天来看,经过一年多的研发,MindSpore在这三方面均取得了成功。
但华为宣布开源MindSpore,只是3月份国产AI框架开源事件中的一起,准确来说,是3月下旬。
3月25日,旷视联合创始人兼CTO唐文斌在其线上发布会上宣布开源自家AI生产力平台Brain++的核心深度学习框架旷视天元(MegEngine),并将于6月推出公测版本。
公开资料显示,天元是一套训练推理一体化、动静态合一的工业级深度学习框架,架构上具体分为计算接口、图表示、优化与编译、运行时管理和计算内核五层。天元的前身是旷视内部自用的算法训练推理引擎MegEngine,由旷视3名实习生在2013年着手研发,并于2014年正式上线。该框架支撑了旷视6年来在AI竞赛的表现,以及公司产品和业务的落地,并服务于旷视研究院1400余名AI开发者。
旷视称,相比当下主流的开源深度学习框架,天元降低了深度学习的门槛,可提升算法训练和部署的效率。目前,旷视已在OpenI启智社区和GitHub两个开源社区发布了Alpha版。
时间再回拨5天。3月20日,清华大学计算机系图形实验室宣布开源自研深度学习框架Jittor,中文名为计图。
不同于TensorFlow、Pytorch等主流深度学习框架,Jittor是一个完全基于动态编译(Just-in-time)、使用元算子和统一计算图的深度学习框架。Jittor研发团队表示,开发Jittor是为了更好地释放硬件、模型等能力。如在收敛精度一致情况下,与同类型框架相比,Jittor推理速度提升 10%-50% 。<