牛!Python 也能实现图像姿态识别溺水行为了!

作者 | 李秋键

责编 | Carol

封图 | CSDN 下载自视觉中国

众所周知随着人工智能智能的发展,人工智能的落地项目也在变得越来越多,尤其是计算机视觉方面。

所以今天我们也是做一个计算机视觉方面的训练,用python来判断用户溺水行为,结合姿态识别和图像识别得到结果。其中包括姿态识别和图像分类。

首先图像分类是根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它是利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读

人体姿态是被主要分为基于计算机视角的识别和基于运动捕获技术的识别。基于计算机视觉的识别主要通过各种特征信息来对人体姿态动作进行识别, 比如视频图像序列、人体轮廓、多视角等。

这里整体程序的流程如下:

  1. 百度姿态识别图片并标注

  2. CNN网络实现图像分类

  3. 根据分类结果可视化输出结果

最终输出的程序效果如下图:

一、实验前的准备

首先我们使用的python版本是3.6.5所用到的模块如下:

OpenCV:用来调用姿态识别接口绘制姿态识别结果

Baidu-aip:用来加载人体分析模块实现人体姿态识别

configparser :配置文件模块 读写配置文件

keras:用来训练和调用神经网络模型


素材准备

首先我们准备不同的图片放到一个特定文件夹下。图片分为三个类别,一个是溺水图片文件夹,一个是正常游泳图片文件夹,另一个是疑似溺水无法判定的图片文件夹。在这里我们把它放到data文件夹下,

其中疑似图片文件夹,如下图可见:

人体姿态识别搭建

1、姿态配置文件设定:

在这里为了足够的精度和方便调用,我们使用百度提供的人体分析接口。按照官方的规定设定了配置文件。主要就是设定人体各个肢体零件连接配置。

其对应的代码如下:

def draw_line(self, img):
        # nose ---> neck
        cv2.line(img, (int(self.dic['nose']['x']), int(self.dic['nose']['y'])),
                 (int(self.dic['neck']['x']), int(self.dic['neck']['y'])), (0, 255, 0), 2)
        # neck --> left_shoulder
        cv2.line(img, (int(self.dic['neck']['x']), int(self.dic['neck']['y'])),
                 (int(self.dic['left_shoulder']['x']), int(self.dic['left_shoulder']['y'])), (0, 255, 0), 2)
        # neck --> right_shoulder
        cv2.line(img, (int(self.dic['neck']['x']), int(self.dic['neck']['y'])),
                 (int(self.dic['right_shoulder']['x']), int(self.dic['right_shoulder']['y'])), (0, 255, 0), 2)
        # left_shoulder --> left_elbow
        cv2.line(img, (int(self.dic['left_shoulder']['x']), int(self.dic['left_shoulder']['y'])),
                 (int(self.dic['left_elbow']['x']), int(self.dic['left_elbow']['y'])), (0, 255, 0), 2)
        # left_elbow --> left_wrist
        cv2.line(img, (int(self.dic['left_elbow']['x']), int(self.dic['left_elbow']['y'])),
                 (int(self.dic['left_wrist']['x']), int(self.dic['left_wrist']['y'])), (0, 255, 0), 2)
        # right_shoulder --> right_elbow
        cv2.line(img, (int(self.dic['right_shoulder']['x']), int(self.dic['right_shoulder']['y'])),
                 (int(self.dic['right_elbow']['x']), int(self.dic['right_elbow']['y'])), (0, 255, 0), 2)
        # right_elbow --> right_wrist
        cv2.line(img, (int(self.dic['right_elbow']['x']), int(self.dic['right_elbow']['y'])),
                 (int(self.dic['right_wrist']['x']), int(self.dic['right_wrist']['y'])), (0, 255, 0), 2)
        # neck --> left_hip
        cv2.line(img, (int(self.dic['neck']['x']), int(self.dic['neck']['y'])),
                 (int(self.dic['left_hip']['x']), int(self.dic['left_hip']['y'])), (0, 255, 0), 2)
        # neck --> right_hip
        cv2.line(img, (int(self.dic['neck']['x']), int(self.dic['neck']['y'])),
                 (int(self.dic['right_hip']['x']), int(self.dic['right_hip']['y'])), (0, 255, 0), 2)
        # left_hip --> left_knee
        cv2.line(img, (int(self.dic['left_hip']['x']), int(self.dic['left_hip']['y'])),
                 (int(self.dic['left_knee']['x']), int(self.dic['left_knee']['y'])), (0, 255, 0), 2)
        # right_hip --> right_knee
        cv2.line(img, (int(self.dic['right_hip']['x']), int(self.dic['right_hip']['y'])),
                 (int(self.dic['right_knee']['x']), int(self.dic['right_knee']['y'])), (0, 255, 0), 2)
        # left_knee --> left_ankle
        cv2.line(img, (int(self.dic['left_knee']['x']), int(self.dic['left_knee']['y'])),
                 (int(self.dic['left_ankle']['x']), int(self.dic['left_ankle']['y'])), (0, 255, 0), 2)
        # right_knee --> right_ankle
        cv2.line(img, (int(self.dic['right_knee']['x']), int(self.dic['right_knee']['y'])),
                 (int(self.dic['right_ankle']['x']), int(self.dic['right_ankle']['y'])), (0, 255, 0), 2)

2、姿态识别调用:

在设置好基本的配置文件后,我们通过百度申请的账号密匙等等调用接口即可。这里实现的效果如下:

 

对应代码如下:

class BaiDuAPI(object):
    # 特殊 构造函数 初始化函数
    def __init__(self):
        app_id ="20038443"
        api_key = "LhtctcN7hf6VtkHHcUGwXKfw"
        secret_key = "wzWACH340kE0FGhvA9CqWsiRwltf5wFE"
        self.client = AipBodyAnalysis(app_id, api_key, secret_key)
    """ 读取图片 """
    def get_file_content(self, photoPath):
        with open(photoPath, 'rb') as fp:
            return fp.read()
    """ 主函数 """
    def file_main(self, photoPath):
        img = self.get_file_content('{}'.format(photoPath))
        """ 调用人体关键点识别 """
        # 此处只能对一个人进行关键点识别
        # 也就是说一个图片如果有好多人的话,只能标出一个人的关节特征
        # 此处可以做修改,即进行把一张图所有人的关节特征都表达出来
        # ------
        #        print(self.client.bodyAnalysis(img))
        result = self.client.bodyAnalysis(img)['person_info'][0]['body_parts']
        jo = joint.Joint(result)
        jo.xunhun(photoPath)
        # print(result )

CNN识别模型的建立

1、神经网络的搭建:

这里设定的CNN模型挺常见的模型相似,通过设定卷积核、步长、训练批次等等搭建网络。

代码如下:

model = Sequential() #创建一个神经网络对象
#添加一个卷积层,传入固定宽高三通道的图片,以32种不同的卷积核构建32张特征图,
# 卷积核大小为3*3,构建特征图比例和原图相同,激活函数为relu函数。
model.add(Conv2D(input_shape=(IMG_W,IMG_H,3),filters=32,kernel_size=3,padding='same',activation='relu'))
#再次构建一个卷积层
model.add(Conv2D(filters=32,kernel_size=3,padding='same',activation='relu'))
#构建一个池化层,提取特征,池化层的池化窗口为2*2,步长为2。
model.add(MaxPool2D(pool_size=2,strides=2))
#继续构建卷积层和池化层,区别是卷积核数量为64。
model.add(Conv2D(filters=64,kernel_size=3,padding='same',activation='relu'))
model.add(Conv2D(filters=64,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D(pool_size=2,strides=2))
#继续构建卷积层和池化层,区别是卷积核数量为128。
model.add(Conv2D(filters=128,kernel_size=3,padding='same',activation='relu'))
model.add(Conv2D(filters=128,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D(pool_size=2, strides=2))
model.add(Flatten()) #数据扁平化
model.add(Dense(128,activation='relu')) #构建一个具有128个神经元的全连接层
model.add(Dense(64,activation='relu')) #构建一个具有64个神经元的全连接层
model.add(Dropout(DROPOUT_RATE)) #加入dropout,防止过拟合。
model.add(Dense(CLASS,activation='softmax')) #输出层,一共3个神经元,对应3个分类
adam = Adam(lr=LEARNING_RATE) #创建Adam优化器
model.compile(optimizer=adam,loss='categorical_crossentropy',metrics=['accuracy']) #使用交叉熵代价函数,adam优化器优化模型,并提取准确率
train_generator = train_datagen.flow_from_directory( #设置训练集迭代器
    TRAIN_PATH, #训练集存放路径
    target_size=(IMG_W,IMG_H), #训练集图片尺寸
    batch_size=BATCH_SIZE #训练集批次
    )
test_generator = test_datagen.flow_from_directory( #设置测试集迭代器
    TEST_PATH, #测试集存放路径
    target_size=(IMG_W,IMG_H), #测试集图片尺寸
    batch_size=BATCH_SIZE, #测试集批次
    )
print(train_generator.class_indices) #打印迭代器分类
try:
    model = load_model('{}.h5'.format(SAVE_PATH))  #尝试读取训练好的模型,再次训练
    print('model upload,start training!')
except:
    print('not find model,start training') #如果没有训练过的模型,则从头开始训练
model.fit_generator( #模型拟合
                    train_generator,  #训练集迭代器
                    steps_per_epoch=len(train_generator), #每个周期需要迭代多少步
                    epochs=EPOCHS, #迭代周期
                    validation_data=test_generator, #测试集迭代器
                    validation_steps=len(test_generator) #测试集迭代多少步
                    )
model.save('{}.h5'.format(SAVE_PATH)) #保存模型
print('finish {} epochs!'.format(EPOCHS))
2、模型的调用:

同训练的步骤相似,这里我们首先也是是通过调用百度姿态识别进行图片人体分析,然后分类预测结果。

代码如下:

# 载入模型
model = load_model('model_selector.h5')
label = np.array(['正常','疑似','溺水'])
def image_change(image):
 image = image.resize((224, 224))
 image = img_to_array(image)
 image = image / 255
 image = np.expand_dims(image, 0)
 return image
class BaiDuAPI(object):
    # 特殊 构造函数 初始化函数
    def __init__(self):
        app_id ="20038443"
        api_key = "LhtctcN7hf6VtkHHcUGwXKfw"
        secret_key = "wzWACH340kE0FGhvA9CqWsiRwltf5wFE"
        self.client = AipBodyAnalysis(app_id, api_key, secret_key)
    """ 读取图片 """
    def get_file_content(self, photoPath):
        with open(photoPath, 'rb') as fp:
            return fp.read()
    """ 主函数 """
    def file_main(self, photoPath):
        img = self.get_file_content('{}'.format(photoPath))
        """ 调用人体关键点识别 """
        # 此处只能对一个人进行关键点识别
        # 也就是说一个图片如果有好多人的话,只能标出一个人的关节特征
        # 此处可以做修改,即进行把一张图所有人的关节特征都表达出来
        # ------
        #        print(self.client.bodyAnalysis(img))
        result = self.client.bodyAnalysis(img)['person_info'][0]['body_parts']
        jo = joint.Joint(result)
        jo.xunhun(photoPath)
        # print(result )
#预测2.jpg的结果
try:
    image = load_img("2.jpg")
    #plt.imshow(image)
    image = image_change(image)
    baiduapi = BaiDuAPI()
    baiduapi.file_main('2.jpg')
    img=cv2.imread("temp.jpg")
    img_PIL = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
    myfont = ImageFont.truetype(r'C:/Windows/Fonts/simfang.ttf', 40)
    draw = ImageDraw.Draw(img_PIL)
    draw.text((300, 10), label[model.predict_classes(image)][0], font=myfont, fill=(200, 100, 0))
    img_OpenCV = cv2.cvtColor(np.asarray(img_PIL), cv2.COLOR_RGB2BGR)
    cv2.imshow('frame', img_OpenCV)
    cv2.waitKey(0)
except:
    pass
#预测1.jpg的结果
try:
    image = load_img("1.jpg")
    #plt.imshow(image)
    image = image_change(image)
    baiduapi = BaiDuAPI()
    baiduapi.file_main('1.jpg')
    img=cv2.imread("temp.jpg")
    img_PIL = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
    myfont = ImageFont.truetype(r'C:/Windows/Fonts/simfang.ttf', 40)
    draw = ImageDraw.Draw(img_PIL)
    draw.text((300, 10), label[model.predict_classes(image)][0], font=myfont, fill=(200, 100, 0))
    img_OpenCV = cv2.cvtColor(np.asarray(img_PIL), cv2.COLOR_RGB2BGR)
    cv2.imshow('frame', img_OpenCV)
    cv2.waitKey(0)
except:
    pass
#预测3.jpg的结果
try:
    image = load_img("3.jpg")
    #plt.imshow(image)
    image = image_change(image)
    baiduapi = BaiDuAPI()
    baiduapi.file_main('3.jpg')
    img=cv2.imread("temp.jpg")
    img_PIL = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
    myfont = ImageFont.truetype(r'C:/Windows/Fonts/simfang.ttf', 40)
    draw = ImageDraw.Draw(img_PIL)
    draw.text((300, 10), label[model.predict_classes(image)][0], font=myfont, fill=(200, 100, 0))
    img_OpenCV = cv2.cvtColor(np.asarray(img_PIL), cv2.COLOR_RGB2BGR)
    cv2.imshow('frame', img_OpenCV)
    cv2.waitKey(0)
except:
    pass

最终运行程序结果如下:

源码地址:

https://pan.baidu.com/s/1qMwPCTTyqDWPXoPj1XnKgA

提取码:us2k

作者简介:

李秋键,CSDN博客专家,CSDN达人课作者。硕士在读于中国矿业大学,开发有taptap竞赛获奖等等。

推荐阅读
你点的每个“在看”,我都认真当成了AI
智慧游泳馆-基于YOLOv9实现人员溺水检测系统python源码+详细运行教程+训练好的模型+评估指标曲 【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda中配置好环境,然后直接导入到pycharm中,在pycharm中运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna中安装requirements.txt中的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda中对应的python导入到pycharm中即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.csdn.net/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据集质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面中的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码中data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py中的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm中运行train_dual.py开始训练 方式二: 命令行方式,在pycharm中的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py中的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码中的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm中运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频 【特别说明】 *项目内容完全原创,请勿对项目进行外传,或者进行违法等商业行为! 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值