微信公众号:芯片之家(ID:chiphome-dy)
近日,英国半导体科技公司XMOS宣布推出Xcore.ai ,它是一款面向AIoT市场的超强性能跨界处理器,该处理器可在单个设备中提供高性能AI,DSP,控制和IO,价格从1美元起。 旨在用于端点设备中的实时AI推理和决策,还拥有很强的信号处理,控制和通信功能,使电子制造商能够以最低成本将高性能处理器集成到他们的产品中。实际上,这已经是Xcore.ai架构的第三代产品了,第一代体系结构实现了跨不同I / O协议之间的“数百种”应用程序,而第二代体系结构通过添加双流水线设计来增强芯片的控制和数字信号处理性能,最典型的就是其XVF3510语音处理器,实现了很牛X的远场语音识别能力。最新的Xcore.ai是一种交叉芯片,旨在在单个设备中提供高性能AI,数字信号处理,控制和输入/输出,价格从 1美元起。
接下来我们看看,Xcore.ai究竟有多么牛逼的性能!Xcore基于排列在带有内存,ALU和向量单元的图块中的逻辑核心
Xcore.ai芯片可提供3200 MIPS,51.2 GMACC和1600 MFLOPS。它具有1 MB的SRAM以及一个用于扩展的低功耗DDR接口。
与Cortex-M7设备相比,以相似的工作频率运行,但是,XMOS将其AI处理性能提高了32倍,DSP性能提高了15倍。大家说说,与前几天arm发布的M55内核哪个更牛逼?
Arm宣布推出Cortex-M55核心和Ethos-U55 microNPU,瞄准低功耗Edge AI
Xcore.ai基于XMOS的专有Xcore架构。Xcore本身建立在称为逻辑核心的构建块上,可用于I / O,DSP,控制功能或AI加速。每个图块上有八个逻辑核心,每个Xcore.ai芯片中都有两个图块,设计人员可以选择为每个功能分配多少个核心。每个图块还包含内存,ALU和逻辑内核共享访问权限的向量单元。
Xcore是多核的,通过将不同功能(I / O,DSP,控制,AI)映射到固件中的逻辑内核,可以创建完全由软件编写的“虚拟SoC”。因此我们可以为应用程序的特定部分提供特定的资源。 在下面的示例中,一个内核正在执行驱动以及采集信号的任务,例如I2S,I2C和LED驱动器应用;一些内核正在处理神经网络,而其他内核则在执行其它任务。这些都可以在软件中定义实际的需求速度,所有可以做到速度非常快,以适应物联网设备的瞬态需求。 可编程性: 1、完全可在“ C”中进行编程,具有特定的功能,例如可通过优化的c库访问DSP和机器学习。 2、支持FreeRTOS实时操作系统,使开发人员能够使用各种熟悉的开源库组件。 3、TensorFlow Lite到xcore.ai转换器,可轻松进行神经网络模型的原型设计和部署。 连接性: 1、多达128个灵活的IO引脚(可通过软件编程)可访问各种接口和外围设备,ns级别响应速度,可根据应用的确切需求进行定制。 2、集成的硬件USB 2.0 PHY和MIPI接口,用于收集和处理来自各种传感器的数据。 神经网络:1、使用深度神经网络使用二进制值进行激活和权重,而不是全精度值,从而大大减少了执行时间。
2、通过使用Binary Neural Networks,xcore.ai的效率比8位同类产品高2.6倍至4倍。
亮点:1、Xcore.ai结合了DSP和机器学习功能以及标量,浮点和定点以及矢量指令,以提供有效的控制。
2、16个实时逻辑内核,支持标量/浮点/矢量指令,可根据应用实现灵活性和可扩展性。
3、具有纳秒级延迟的灵活IO端口,确保跨应用程序的时间要求严格的响应。
4、支持8位和二值化神经网络推断(以及16位/ 32位),提供设备上的智能。
5、复杂的多模式数据捕获和处理,可跨分类,音频接口,存在检测,语音接口,通信和控制,启动进行并发的设备上应用程序。
6、用于数字信号处理,机器学习和加密功能的高性能指令集。
7、针对TensorFlow Lite的微控制器模型的设备上推断,提供了熟悉的开发环境。
从最近发布的这些超强性能的处理器来看,未来在本地端进行AI处理,机器学习将变得非常重要,强大的本地处理能力可以有效的解决很多云端处理的痛点,比如稳定的连接性,隐私以及延迟。在发布这些牛逼芯片的同时,对我们工程师来说,很重要的一点就是易用性,有了这一点,我们可以很快速的掌握芯片的基本使用,使嵌入式软件工程师能够在单个多核交叉处理器上部署各种不同类型的处理工作。
未来,更多公司肯定会加重AI芯片的研发,低成本,高性能,快速上手开发将是我们选择芯片最主要考虑的因素,到2025年,人工智能芯片市场预计将达到911.8亿美元,有了这些强大的AI芯片,未来的产品的将有无限的想象空间,人们的生活也会因此变得更加智能,更加安全,更加幸福!
推荐阅读
▼