随着越来越多功能强大的新设备开始支持GPU,边缘场景的用例不断扩展到各行各业。随着技术的发展,边缘的规模越来越大,效率越来越高。NVIDIA凭借其行业领先的GPU携手领先的处理器IP技术提供商ARM在边缘生态系统领域进行重大创新和投资。NVIDIA Jetson Nano便是其中的代表产品之一,它功能强大但花销极低,它可以运行支持GPU的工作负载并处理AI / ML数据处理任务。此外,Kubernetes等云原生技术还使开发人员能够使用容器为边缘构建轻量级应用程序。为了在整个计算多样化的边缘生态系统中实现无缝的云原生软件体验,Arm推出了Cassini项目
(https://www.arm.com/solutions/infrastructure/edge-computing/project-cassini)——基于标准的开放式协作计划。它利用这些基于Arm的异构平台的功能为边缘应用程序创建安全的基础。
K3s最初由Rancher Labs 在2019年年初推出,于2020年8月成为CNCF沙箱项目,目前Github Star超过16,000颗,已经成为小型设备的关键编排平台。 作为专为边缘而建的Kubernetes发行版, 它足够轻巧,不会给设备RAM和CPU带来压力。利用Kubernetes设备插件框架,运行在这些设备上的工作负载可以高效地访问GPU功能。
在边缘典型场景下,边缘设备主要用于收集数据,然后在云端对数据进行分析以及解码。但是随着边缘设备变得越来越强大,我们现在可以直接在边缘端执行AI/ML流程。
在此前的文章中,我们了解到使用GPU在云端部署Rancher Kubernetes集群是极为高效的。
在本文中,我们将了解NVIDIA的Jetson Nano如何与K3s结合并且在边缘启用GPU功能,最终我们将会拥有一个极为出色的边缘平台。下图描述了案例中的