毫无疑问,今天AI正与产业结合得越来越紧密,从自动驾驶,到智慧医疗,智慧金融、智慧城市等,AI已经开始渗透到我们生活的方方面面。实际上,即便目前来自传统行业用户的AI转型需求尚未完全激活爆发,但仅仅是浮出水面的这部分需求已经是一个万亿级别的超级市场规模。
与此同时,AI的应用还拓展到了之前人们未曾想到的地方——那就是边缘侧。IDC预计,全球边缘计算服务器市场未来五年的年复合增长率会达到20.2%;而在中国市场,边缘计算服务器市场未来五年的年复合增长率更是高达76.7%。
这也意味着,伴随着AI行业应用的不断深入,参数空间会更大、结构更加复杂,算力消耗更高的大型AI模型会不断涌现,同时由于大部分的数据还需要在网络边缘分析、处理与储存,当连接数的不断增加,所需要的边缘AI算力也会呈“指数级”增长。
那么,如何才能更好地破解行业AI和边缘AI爆发所带来的这种挑战?换句话说,当“边缘”遇见“AI”,究竟如何才能更好地跨越背后的算力“鸿沟”呢?
当边缘遇见AI,背后的双重挑战
可以看到,人工智能的变革力量和能力提高了企业业务运营的便利性以及企业的投资回报率,但随着企业数据空前地增长和扩张,且工作负载也在复杂多变的系统中以各种方式流动,这不仅加剧了企业和行业利用AI的能力,同时其位置的复杂性也让边缘AI的重要性随之增加,更让企业面临着全新的挑战,我们可以从两个维度来做观察:
一方面,从行业AI角度看,目前AI技术正在加速与各个主要行业融合,创造出了更多的行业应用场景。但与此同时,这些行业AI的应用也加大了对计算力的消耗,数据显示目前AI算力平均2-3个月就会增长一倍,AI模型越来越庞大,模型的参数规模也在快速增长,因此针对AI的计算和训练,不仅需要引入多样化的计算方式,同时针对AI的大规模训练,仅依靠提升AI加速芯片单卡性能变得非常困难,这也让多机多卡分布式训练“势在必行”,但是和AI服务器通常采用单机训练的方式相比,多机GPU分布式训