这是一个基于MCU的视觉AI模块,由ARM Cortex-M55和Ethos-U55驱动。它支持TensorFlow和PyTorch框架,并与Arduino IDE兼容。借助SenseCraft AI算法平台,经过训练的ML模型可以部署到传感器上,而不需要编码。它具有标准的CSI接口,内置数字麦克风和SD卡插槽,非常适合各种嵌入式AI视觉项目。为了充分挖掘 Grove Vision AI V2 的潜力,可以使用针对树莓派的OV5647-62 FOV相机模块
图1.1 Grove Vision AI V2 连接示意图
特点
- 强大的人工智能处理能力:利用 WiseEye2 HX6538 处理器,双核 ARM Cortex-M55和集成的 ARM Ethos-U55神经网络单元。
- 多功能人工智能模型支持:轻松部署现成的或从 SenseCraft 人工智能定制的人工智能模式,包括 Mobilenet V1 , V2 ,Efficientnet-lite, Yolo v5 和 v8 .支持 TensorFlow 和 PyTorch 框架。
- 丰富的外围设备:包括 PDM 麦克风、 SD 卡插槽、Type-C、 Grove 接口和其他外围设备。
- 兼容性高:兼容 XIAO 系列、 Arduino 、 Raspberry Pi 、 ESP 开发板,便于进一步开发。
- 完全开放源码:所有代码、设计文件和示意图都可供修改和使用。
应用程序
- 工业自动化:质量检测、预测性维护、语音控制等。
- 智慧城市:设备监控、能源管理等
- 交通:状态监控、位置跟踪等。
- 智慧农业:环境监测等
- 移动物联网设备:可穿戴设备、手持设备等。
将Grove Vision AI V2模块如图1.1所示连接起来之后,使用typec接口将其连接到电脑上,登入训练平台网站SenseCraft AI (seeed-studio.github.io),在右上角选择V2模块,点击连接按钮即可在训练平台与V2模块之间建立连接。
柴火创客官方提供了丰富的AI模型可以直接使用,接下来我将演示上传、使用手势识别的过程,该模型可以识别石头、剪刀、布三种手势。
选中你想要使用的模型,点击上方的发送按钮,等待一段烧录固件的时间之后即可开始识别,此时从界面的右侧可以看到预览的实时监测画面。
以下三图分别是剪刀、布、石头的识别画面,可以看到置信率基本在80%以上。
感谢柴火创客对本项目的支持。