🧑 作者简介:阿里巴巴嵌入式技术专家,深耕嵌入式+人工智能领域,具备多年的嵌入式硬件产品研发管理经验。
📒 博客介绍:分享嵌入式开发领域的相关知识、经验、思考和感悟,欢迎关注。提供嵌入式方向的学习指导、简历面试辅导、技术架构设计优化、开发外包等服务,有需要可私信联系。
🗄️ 专栏介绍:本文归属于专栏《嵌入式解决方案》,专注嵌入式开发中的解决方案,持续更新中,欢迎大家免费订阅关注。
TinyML的介绍以及在运动健康领域的应用
1. 机器学习是什么解决什么问题?
1.1 机器学习是什么?
- 涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。
- 深度学习是机器学习领域中的一个研究方向。
1.2 解决什么问题?
- 分类问题:图像识别,分类,垃圾邮件识别等
- 回归问题:根据数据样本的特征,预测一个连续值的结果,例如股票预测,销量预测,图像分割。
- 聚类问题(无监督学习):新闻分类
1.3 有什么解决方案?
- DNN(Deep Neural Network)深度神经网络
- CNN(Convolutional Neural Network)卷积神经网络,处理图像分类,特征提取
- RNN(Recurrent Neural Network)循环神经网络,处理自然语言,语音数据,手势姿态等
2. TinyML简介
2.1 什么是TinyML
随着深度学习技术的发展,已有数种深度学习框架,例如TensorFlow、Caffe、Caffe2、Theano、Torch、MXNet和CNTK,支持卷积神经网络、递归神经网络等模型结构。
其中,TensorFlow由Google Brain团队的研究员和工程师研发,已成为业界最受欢迎的机器学习项目。TensorFlow框架的优秀特性,主要包括:
- 支持异构设备的分布式计算,可有效地利用机器资源进行模型训练。
- 支持卷积、循环神经等网络结构,这些都是在计算机视觉、语音识别、自然语言处理方面最流行的深度神经网络。
- 支持模型从研究团队到生产环境的快速迁移,构建起模型研究到生产使用的桥梁。
- 支持移动端开发,及智能终端产品的嵌入式开发。
- 具备出色的版本管理和详细的官方文档,模型众多,生态系统比较完备。
而TensorFlow Lite 是 TensorFlow 的轻量级版本,专为移动和嵌入式设备设计。它优化了模型的大小和运行效率,使得深度学习模型可以在资源有限的设备上运行,如智能手机、平板电脑和IoT设备。TFLite 允许开发者将训练好的TensorFlow模型转换为一个优化的格式,以便在这些设备上实时运行。
TinyML(Machine Learning with TensorFlow Lite on Arduino and Ultra-Low-Power Microcontrollers(基于Arduino和超低功耗微控制器的TensorFlow Lite机器学习)
)是指在极低功耗的微控制器和其他小型计算设备上运行的机器学习应用。这通常涉及到将已经训练好的机器学习模型压缩和优化,以使其适应更小的内存和处理能力。TinyML 的目标是在这些设备上实现AI功能,同时保持低能耗和低成本。虽然TinyML不是一个具体的产品或库,但TensorFlow Lite for Microcontrollers(一个TFLite的分支)是专门针对微控制器优化的,常被用在TinyML项目中。
2.2 TinyML优势和局限
2.2.1 TinyML的优势
- 模型精简,低算力,低功耗
- 数据不上云,本地处理,对数据隐私有保护作用
- 数据本地处理,不上云,反应及时,低时延
- 模型精简,模型体积比较小,适用大多数微处理器
- 在保证模型体积小的基础上,能够满足精度需求
2.2.2 TinyML的局限
由于MCU性能有限,所以TinyML的应用领域、性能、效率方面相比TensorFlow是有一定局限性的,比如:
应用领域|微控制器上的TinyML|服务器上的TensorFlow
----|—|—
异常检测|能,模型尺寸有限|能,大模型
图像识别|能,分辨率和实时性不强|能,分辨率和实时性不强
语音识别|仅能识别唤醒词/命令词|全自然语言处理
2.3 TinyML为什么可以做得很小
TensorFlow为了能够运行到微控制上,主要做了下面3方面的优化:
- Quantization 模型量化,减小模型体积,提高运行速度
- Weight Pruning 剪枝,减少神经元,减少通道数
- Knowledge Distillation 知识蒸馏,知识迁移
2.3.1 Quantization(模型量化)
模型量化即以较低的推理精度损失将连续取值(或者大量可能的离散取值)的浮点型模型权重或流经模型的张量数据定点近似(通常为int8)为有限多个(或较少的)离散值的过程,它是以更少位数的数据类型用于近似表示32位有限范围浮点型数据的过程,而模型的输入输出依然是浮点型,从而达到减少模型尺寸大小、减少模型内存消耗及加快模型推理速度等目标。
主要目的:把float类型转化为int型,降低模型内存大小
量化参数: DEFAULT, OPTIMIZE_FOR_SIZE, OPTIMIZE_FOR_LATENCY
2.3.2 Weight Pruning(权重稀疏)
模型剪枝可以帮助使模型的表示更紧凑。从广义上讲,剪枝试图去除对输出预测没有多大用处的神经元。
这通常与较小的神经权重相关联,而较大的权重由于在推理过程中的重要性而保持不变。
然后在剪枝后的体系结构上重新训练网络,以微调输出。
主要手段:通道剪枝,神经元剪枝。
2.3.3 Knowledge Distillation (知识蒸馏)
“Teacher”是一个经过训练的神经网络模型。教师的任务是将其“知识”转移到参数较少的较小网络模型“student”。
该过程用于将相同的知识存储在较小的网络中,提供了一种压缩知识表示的方法,从而压缩了神经网络的大小,从而可以将其用于更多内存受限的设备上。
2.4 TinyML核心组件
- Converter
1. 将TF模型转化为TFLite模型
2. 减少模型体积,保持模型精度。
- Interpreter
1. 支持多系统
2. 透出标准API
3. 解析TFLite模型
3. TinyML Workflow
3.1 TinyML模型选择
* 预训练模型
* 图像分类
* 物体检测
* 智能回复
* 姿态估计
* 语义分割
* 重新训练模型
* 迁移学习
* 重新训练已有模型
* 自训练模型
* 自主化训练
3.2 TinyML模型转换
3.3 TinyML模型性能评估和优化
- TinyML性能评估
模型进行性能分析和基准测试。TensorFlow Lite 基准测试工具有内置的性能分析器,可展示每个算子的性能分析数据。这能帮助理解性能瓶颈,以及哪些算子占据了大部分计算时间。
- TinyML模型优化
Tensorflow提供了优化工具包,主要是通过模型量化,剪枝,聚类的方式进行优化。
4. TinyML应用场景
- 语音识别类
* 唤醒词/命令词识别:唤醒词训练和识别
* 哭声检测:
- 运动健康类
* 运动检测:羽毛球,足球,游泳等运动模式检测
* 健康监控:心率,血氧,呼吸统计,饮水提醒,久坐提醒
* 疾病防治:监控血糖,自动释放胰岛素
- 物体识别类
* 物体识别:野生环境生物识别
* 人脸识别:统计人流量
- 农业,智慧城市
* 精细化灌溉,施肥,病虫害防治,城市环境,空气质量监控等
5. TinyML在运动健康领域的实践
5.1 运动健康领域的应用场景
- 健康监控
识别低头,抬头,运动动作,并统计时间,对健康数据进行统计展示,为健康建议提供数据。
- 久坐提醒
统计久坐时长,统计时长,在1个小时时间内,低头时间超过40分钟,发送健康提醒。
- 接听/挂断电话
当电话接入时,收到广播,开始进行点头和摇头动作识别,识别导点头,接听电话,识别导摇头,挂断电话。
- 运动健康训练
识别点头,抬头,颈部左移动,颈部右移动动作。统计次数,完成运动指标。