【雕爷学编程】MicroPython手册之 ESP32-CAM 识别和追踪目标物体

在这里插入图片描述
MicroPython是为了在嵌入式系统中运行Python 3编程语言而设计的轻量级版本解释器。与常规Python相比,MicroPython解释器体积小(仅100KB左右),通过编译成二进制Executable文件运行,执行效率较高。它使用了轻量级的垃圾回收机制并移除了大部分Python标准库,以适应资源限制的微控制器。

MicroPython主要特点包括:
1、语法和功能与标准Python兼容,易学易用。支持Python大多数核心语法。
2、对硬件直接访问和控制,像Arduino一样控制GPIO、I2C、SPI等。
3、强大的模块系统,提供文件系统、网络、图形界面等功能。
4、支持交叉编译生成高效的原生代码,速度比解释器快10-100倍。
5、代码量少,内存占用小,适合运行在MCU和内存小的开发板上。
6、开源许可,免费使用。Shell交互环境为开发测试提供便利。
7、内置I/O驱动支持大量微控制器平台,如ESP8266、ESP32、STM32、micro:bit、掌控板和PyBoard等。有活跃的社区。

MicroPython的应用场景包括:
1、为嵌入式产品快速构建原型和用户交互。
2、制作一些小型的可 programmable 硬件项目。
3、作为教育工具,帮助初学者学习Python和物联网编程。
4、构建智能设备固件,实现高级控制和云连接。
5、各种微控制器应用如物联网、嵌入式智能、机器人等。

使用MicroPython需要注意:
1、内存和Flash空间有限。
2、解释执行效率不如C语言。
3、部分库函数与标准版有差异。
4、针对平台优化语法,订正与标准Python的差异。
5、合理使用内存资源,避免频繁分配大内存块。
6、利用原生代码提升速度关键部位的性能。
7、适当使用抽象来封装底层硬件操作。

在这里插入图片描述
ESP32-CAM是一款基于ESP32芯片的小尺寸摄像头模块,具有低功耗、高性能、Wi-Fi和蓝牙功能等特点。根据我从网络上搜索到的信息,ESP32-CAM的核心技术参数如下:
1、CPU:双核32位LX6微处理器,主频高达240MHz,运算能力高达600 DMIPS
2、内存:内置520 KB SRAM,外置4-8MB PSRAM
3、存储:支持TF卡,最大32G
4、无线通信:支持802.11 b/g/n Wi-Fi和蓝牙4.2 BR/EDR和BLE标准
5、接口:支持UART/SPI/I2C/PWM/ADC/DAC等接口
6、摄像头:支持OV2640和OV7670摄像头,内置闪光灯,支持图片Wi-Fi上传
7、电源管理:支持多种休眠模式,深度睡眠电流最低达到6mA
8、封装形式:DIP封装,可直接插上底板使用
9、尺寸:2740.54.5mm

在这里插入图片描述
MicroPython的ESP32-CAM识别和追踪目标物体是一种基于ESP32-CAM模块和MicroPython编程的智能视觉解决方案,旨在实现对目标物体的自动识别和跟踪功能。

主要特点:

视觉识别:ESP32-CAM识别和追踪目标物体系统可以使用图像处理算法和机器学习技术,对摄像头捕获的实时视频图像进行分析和处理,实现目标物体的识别和分类。
物体追踪:系统可以根据识别到的目标物体,通过图像处理和运动估计算法,实现对目标物体的追踪。通过连续的图像帧分析和目标物体的位置预测,可以实现目标物体的精确追踪。
实时反馈和控制:识别和追踪目标物体的系统可以提供实时反馈和控制功能。例如,可以通过声音、光线或机械设备等方式对目标物体进行警报、拍照、录像或其他操作。

应用场景:

安防监控:ESP32-CAM识别和追踪目标物体系统适用于安防监控场景。可以将摄像头安装在需要监控的区域,通过对识别和追踪目标物体的分析,实现对潜在威胁或异常行为的及时探测和警报。
物流仓储:在物流仓储领域,可以利用该系统进行目标物体的识别和追踪。例如,可以通过识别和追踪货物标签或特定物体,实现自动化的货物管理和位置跟踪。
智能机器人:在智能机器人领域,该系统可以用于识别和追踪特定的目标物体。例如,用于导航机器人、跟随机器人或服务机器人等,实现对特定对象的追踪和交互。

需要注意的事项:

算法准确性和性能:目标物体的识别和追踪算法需要具备较高的准确性和性能。在设计和选择算法时,需要进行充分的测试和验证,以确保系统在不同场景和环境下的可靠性和稳定性。
资源限制:ESP32-CAM是一款资源有限的硬件设备,需要注意资源的合理利用。在实现识别和追踪功能时,需要权衡算法复杂度和硬件资源的可用性,以保证系统的正常运行。
隐私和数据安全:在识别和追踪目标物体的过程中,需要注意隐私和数据安全。确保图像数据的保密性和完整性,遵守相关的隐私保护法律和规定。
综上所述,MicroPython的ESP32-CAM识别和追踪目标物体系统具备视觉识别、物体追踪和实时反馈控制等特点。它适用于安防监控、物流仓储和智能机器人等场景。在使用时需要注意算法准确性和性能、资源限制,以及隐私和数据安全等事项。

案例1:实时视频流目标物体识别

import sensor, image, time, os, tf
from machine import UART
from fpioa_manager import fm
from board import board_info
from Maix import GPIO
from machine import PWM
from pid import PID

sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.skip_frames(time = 2000)

clock = time.clock()
uart = UART(UART.UART2, 115200,8,0,0,timeout=1000, read_buf_len=8192)

while(True):
    clock.tick()
    img = sensor.snapshot()
    uart.write("START\n".encode())
    for blob in img.find_blobs([(0, 80, -10, 127, -128, 127)],roi=(0, 0, 320, 240),pixels_threshold=200, area_threshold=200, merge=True):
        img.draw_rectangle(blob.rect())
        img.draw_cross(blob.cx(), blob.cy())
        uart.write(("ball_x:"+str(blob.cx())+"\n").encode())
        uart.write(("ball_y:"+str(blob.cy())+"\n").encode())
    uart.write("END\n".encode())

该代码实现了通过ESP32-CAM实时捕获图像,并通过串口将目标物体的位置信息发送给外部设备,例如舵机或其他类型的电动机控制器,以实现对目标物体的追踪。

代码主要过程包括:
初始化摄像头和串口
循环运行,每次拍摄一张图片并查找满足特定阈值条件的色块对象
对每个色块对象绘制矩形和十字形,并通过串口将目标物体中心点的x、y坐标发送出去

案例2:带PID控制的目标跟踪

import sensor, image, time, os, tf
from machine import UART
from fpioa_manager import fm
from board import board_info
from Maix import GPIO
from machine import PWM
from pid import PID

sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.skip_frames(time = 2000)

clock = time.clock()
uart = UART(UART.UART2, 115200,8,0,0,timeout=1000, read_buf_len=8192)
pwm = PWM(GPIO.GPIO1, freq=50, duty=0)

def map(x, in_min, in_max, out_min, out_max):
    return (x - in_min) * (out_max - out_min) // (in_max - in_min) + out_min

# PID参数调整
kp = 0.5
ki = 0.1
kd = 0.5
pid = PID(kp, ki, kd, setpoint=160)

while(True):
    clock.tick()
    img = sensor.snapshot().lens_corr(1.0)
    uart.write("START\n".encode())

    for blob in img.find_blobs([(0, 80, -10, 127, -128, 127)],roi=(0, 0, 320, 240),pixels_threshold=200,area_threshold=200, merge=True):
        img.draw_rectangle(blob.rect())
        img.draw_cross(blob.cx(), blob.cy())
        uart.write(("ball_x:"+str(blob.cx())+"\n").encode())
        uart.write(("ball_y:"+str(blob.cy())+"\n").encode())

        # 计算PID控制量
        pid.input(blob.cx())
        output = pid.output()
        pwm.duty(map(output, -100, 100, 0, 100))

    uart.write("END\n".encode())

该代码在目标追踪的基础上,增加了PID控制环,实现了对舵机或其他电动机的精准控制,以及更加稳定的目标跟踪。

代码主要过程包括:

初始化摄像头、串口和PWM控制器
循环运行,每次拍摄一张图片并查找满足特定阈值条件的色块对象
对每个色块对象绘制矩形和十字形,并通过串口将目标物体中心点的x、y坐标发送出去
根据目标物体中心点的x坐标计算PID控制量,并通过PWM控制器对电机进行精准控制

案例3:目标识别和分类

import sensor, image, time, os, tf
from machine import UART
from fpioa_manager import fm
from board import board_info
from Maix import GPIO
from machine import PWM
from pid import PID

sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.skip_frames(time = 2000)

clock = time.clock()
uart = UART(UART.UART2, 115200,8,0,0,timeout=1000, read_buf_len=8192)

# 初始化模型和标签
model = tf.load("resnet_10_nncase.tflite", map_location="/sd")
labels = [line.rstrip('\n') for line in open('/sd/labels.txt')]

while(True):
    clock.tick()
    img = sensor.snapshot().lens_corr(1.0)
    uart.write("START\n".encode())

    # 对图像进行分类
    out = model.forward(img, quantize=True)
    max_index = out.index(max(out))

    uart.write(("label:"+str(labels[max_index])+"\n").encode())

    uart.write("END\n".encode())

该代码实现了对目标物体的识别和分类,具体实现方法包括:
初始化摄像头和串口
加载训练好的模型和标签
循环运行,每次拍摄一张图片并通过模型进行分类
通过串口将分类结果发送出去
需要注意的是,运行该程序需要在ESP32-CAM的存储卡(SD卡)中放置训练好的模型文件和标签文件。

案例4:案例一:物体识别

import sensor, image, time
from machine import UART
from fpioa_manager import fm

# 初始化摄像头模块
sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.run(1)

# 初始化串口通信
fm.register(2, fm.fpioa.UART2_TX, force=True)
fm.register(3, fm.fpioa.UART2_RX, force=True)
uart = UART(UART.UART2, 115200, 8, None, 1, timeout=1000000)

# 加载预训练的模型文件
task = KPU.load(0x300000)
anchor = (1.889, 2.524, 2.94, 3.675, 3.63, 4.542, 3.91, 9.0, 5.113, 6.63, 11.28, 9.474)
a = KPU.init_yolo2(task, 0.5, 0.3, 5, anchor)

while True:
    img = sensor.snapshot()
    code = KPU.run_yolo2(task, img)
    if code:
        # 获取目标物体的坐标和大小
        for i in code:
            a = lcd.display(img)
            rect = lcd.rectangle(img, i.rect())
            lcd.draw_string(img, "%s : %.2f" % (labels[i.classid()], i.value()), rect[0], rect[1] - 5)
        uart.write(str(code))
    time.sleep(1)

要点解读:
首先初始化摄像头模块,设置像素格式、帧大小等参数。
初始化串口通信,用于接收和发送数据。
加载预训练的物体识别模型文件。
使用KPU进行物体识别,如果检测到目标物体,获取其坐标和大小,并在LCD屏幕上显示。
将识别结果通过串口发送给其他设备。

案例5:物体追踪

import sensor, image, time
from machine import UART
from fpioa_manager import fm

# 初始化摄像头模块
sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.run(1)

# 初始化串口通信
fm.register(2, fm.fpioa.UART2_TX, force=True)
fm.register(3, fm.fpioa.UART2_RX, force=True)
uart = UART(UART.UART2, 115200, 8, None, 1, timeout=1000000)

# 加载预训练的模型文件
task = KPU.load(0x300000)
anchor = (1.889, 2.524, 2.94, 3.675, 3.63, 4.542, 3.91, 9.0, 5.113, 6.63, 11.28, 9.474)
a = KPU.init_yolo2(task, 0.5, 0.3, 5, anchor)

while True:
    img = sensor.snapshot()
    code = KPU.run_yolo2(task, img)
    if code:
        # 获取目标物体的坐标和大小
        for i in code:
            a = lcd.display(img)
            rect = lcd.rectangle(img, i.rect())
            lcd.draw_string(img, "%s : %.2f" % (labels[i.classid()], i.value()), rect[0], rect[1] - 5)
        uart.write(str(code))
    else:
        # 如果未检测到目标物体,发送空数据
        uart.write("")
    time.sleep(1)

要点解读:
与上一个案例相同,首先初始化摄像头模块,设置像素格式、帧大小等参数。
初始化串口通信,用于接收和发送数据。
加载预训练的物体识别模型文件。
使用KPU进行物体识别,如果检测到目标物体,获取其坐标和大小,并在LCD屏幕上显示。
将识别结果通过串口发送给其他设备。如果没有检测到目标物体,发送空数据。

案例6:物体追踪与识别

import sensor, image, time
from machine import UART
from fpioa_manager import fm

# 初始化摄像头模块
sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.run(1)

# 初始化串口通信
fm.register(2, fm.fpioa.UART2_TX, force=True)
fm.register(3, fm.fpioa.UART2_RX, force=True)
uart = UART(UART.UART2, 115200, 8, None, 1, timeout=1000000)

# 加载预训练的模型文件
task = KPU.load(0x300000)
anchor = (1.889, 2.524, 2.94, 3.675, 3.63, 4.542, 3.91, 9.0, 5.113, 6.63, 11.28, 9.474)
a = KPU.init_yolo2(task, 0.5, 0.3, 5, anchor)

while True:
    img = sensor.snapshot()
    code = KPU.run_yolo2(task, img)
    if code:
        # 获取目标物体的坐标和大小
        for i in code:
            a = lcd.display(img)
            rect = lcd.rectangle(img, i.rect())
            lcd.draw_string(img, "%s : %.2f" % (labels[i.classid()], i.value()), rect[0], rect[1] - 5)
        uart.write(str(code))
    else:
        # 如果未检测到目标物体,发送空数据
        uart.write("")
    time.sleep(1)

要点解读:
与上一个案例相同,首先初始化摄像头模块,设置像素格式、帧大小等参数。
初始化串口通信,用于接收和发送数据。
加载预训练的物体识别模型文件。
使用KPU进行物体识别,如果检测到目标物体,获取其坐标和大小,并在LCD屏幕上显示。
将识别结果通过串口发送给其他设备。如果没有检测到目标物体,发送空数据。

案例7:颜色识别

import sensor
import image
import time
from machine import Pin

# 初始化摄像头
sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.skip_frames(time=2000)

# 颜色识别
def color_detection():
    try:
        while True:
            img = sensor.snapshot()
            blobs = img.find_blobs([(100, 100, 100, 127, 127, 127)], pixels_threshold=200, area_threshold=200)
            
            if blobs:
                for blob in blobs:
                    img.draw_rectangle(blob.rect())
                    img.draw_cross(blob.cx(), blob.cy())
            
            time.sleep(0.1)
    except Exception as e:
        print('目标物体识别 - 颜色识别时出错:', e)

# 主函数
def main():
    color_detection()

if __name__ == '__main__':
    main()

要点解读:
在示例程序1中,使用ESP32-CAM实现了颜色识别功能。
通过初始化摄像头,设置图像格式和帧大小,并跳过前几帧以适应环境光线。
在color_detection()函数中,循环捕获摄像头图像,并使用find_blobs()方法识别颜色区块。
如果检测到颜色区块,则在图像上绘制矩形框和十字标记来标记目标物体。

案例8::形状识别

import sensor
import image
import time
from machine import Pin

# 初始化摄像头
sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.skip_frames(time=2000)

# 形状识别
def shape_detection():
    try:
        while True:
            img = sensor.snapshot()
            img.lens_corr(1.8)  # 校正镜头畸变
            
            for c in img.find_circles(threshold=2000, x_margin=10, y_margin=10, r_margin=10, r_min=2, r_max=100):
                img.draw_circle(c.x(), c.y(), c.r(), color=(255, 0, 0))
            
            time.sleep(0.1)
    except Exception as e:
        print('目标物体识别 - 形状识别时出错:', e)

# 主函数
def main():
    shape_detection()

if __name__ == '__main__':
    main()

要点解读:
在示例程序2中,使用ESP32-CAM实现了形状识别功能。
通过初始化摄像头,设置图像格式和帧大小,并跳过前几帧以适应环境光线。
在shape_detection()函数中,循环捕获摄像头图像,并使用find_circles()方法识别圆形目标物体。
如果检测到圆形目标物体,则在图像上绘制圆形来标记目标物体。

案例9:人脸识别

import sensor
import image
import time
from machine import Pin

# 初始化摄像头
sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.skip_frames(time=2000)

# 人脸识别
def face_recognition():
    try:
        # 加载人脸识别模型
        cascade = image.HaarCascade("frontalface", stages=25)
        
        while True:
            img = sensor.snapshot()
            objects = img.find_features(cascade, threshold=0.5, scale_factor=1.5)
            
            for r in objects:
                img.draw_rectangle(r)
            
            time.sleep(0.1)
    except Exception as e:
        print('目标物体识别 - 人脸识别时出错:', e)

# 主函数
def main():
    face_recognition()

if __name__ == '__main__':
    main()

要点解读:
在示例程序3中,使用ESP32-CAM实现人脸识别功能。
通过初始化摄像头,设置图像格式和帧大小,并跳过前几帧以适应环境光线。
在face_recognition()函数中,加载人脸识别模型,并循环捕获摄像头图像。
使用find_features()方法基于人脸级联分类器进行人脸识别,并在图像上绘制矩形框来标记人脸区域。
这几个示例程序展示了ESP32-CAM在MicroPython环境下识别和追踪目标物体的应用。分别演示了颜色识别,形状识别,人脸识别。通过利用摄像头、图像处理和机器学习算法,ESP32-CAM能够实现简单的目标物体识别和追踪,为物联网和嵌入式系统提供了更多的应用可能性。

请注意,以上案例只是为了拓展思路,可能存在错误或不适用的情况。不同的硬件平台、使用场景和MicroPython版本可能会导致不同的使用方法。在实际编程中,您需要根据您的硬件配置和具体需求进行调整,并进行多次实际测试。需要正确连接硬件并了解所使用的传感器和设备的规范和特性非常重要。对于涉及到硬件操作的代码,请确保在使用之前充分了解和确认所使用的引脚和电平等参数的正确性和安全性。

在这里插入图片描述

  • 2
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

驴友花雕

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值