YOLOV3-简单的单张图片识别

一、代码段

import numpy as np
import cv2
import matplotlib.pyplot as plt
def look_img(img):
    img_RGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    plt.imshow(img_RGB)
    plt.show()



net = cv2.dnn.readNet('yolov3.weights', 'yolov3.cfg')


with open('coco.names', 'r') as f:
    classes = f.read().splitlines()

img = cv2.imread('jiejing.png')

height , width, _ = img.shape
blob = cv2.dnn.blobFromImage(img, 1/255, (416, 416), (0, 0, 0), swapRB=True, crop=False)
net.setInput(blob)
layersNames = net.getLayerNames()
output_layers_names = [layersNames[i - 1] for i in net.getUnconnectedOutLayers()]

prediction = net.forward(output_layers_names)


boxes=[]
objectness=[]
class_probs = []
class_ids = []
class_names = []

for scale in prediction: #遍历三种尺度
    for bbox in scale:
        obj = bbox[4]
        class_scores = bbox[5:]
        class_id =np.argmax(class_scores)
        class_name = classes[class_id]
        class_prob = class_scores[class_id]

        center_x = int(bbox[0]*width)
        center_y =int(bbox[1]*height)
        w = int(bbox[2]*width)
        h=int(bbox[3]*height)
        x=int(center_x-w/2)
        y=int(center_y-h/2)

        boxes.append([x,y,w,h])
        objectness.append(float(obj))
        class_ids.append((class_id))
        class_names.append(class_name)
        class_probs.append(class_prob)

confidences = np.array(class_probs) * np.array(objectness)
CONF_THRES = 0.4
NMS_THRES = 0.1

indexes = cv2.dnn.NMSBoxes(boxes, confidences, CONF_THRES, NMS_THRES)
colors = np.random.uniform(0, 255, size=(len(boxes),3))

for i in indexes.flatten():
    x, y, w, h = boxes[i]
    confidence = str(round(confidences[i], 2))
    color = colors[i % len(colors)]
    cv2.rectangle(img, (x, y), (x+w, y+h), color, 8)
    string = '{} {}'.format(class_names[i], confidence)
    cv2.putText(img, string, (x, y+20), cv2.FONT_HERSHEY_PLAIN, 4, (255, 255, 255), 4)


look_img(img)

二、实际结果
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Yolov8-Pose是一种姿态识别算法,它基于目标检测算法Yolov8进行改进,用于检测和识别人体的姿势。引用提到,虽然已经有现成的模型可用,但在特定场景下仍然存在识别不准确的问题。因此,作者建议自己制作数据集,并按照COCO格式标注数据,然后将其转换为Yolo格式。 为了标注数据集,引用推荐使用CVAT作为标注工具。CVAT是一个功能强大且易于使用的标注工具,你可以在GitHub链接https://github.com/opencv/cvat到它。安装完成后,你可以通过浏览器登录CVAT平台。 在CVAT平台上,你需要按照组织->项目->任务的顺序创建任务。在创建任务时,你需要创建一个模板,以便在标注时参考人体的基本结构。可以先传一张正面人体全身照作为参照,然后在绘图区域上画出人体的关键点。根据COCO关键点标准,你需要标注17个点,例如鼻子、左眼、右眼、左耳、右耳、左肩、右肩等等。 完成任务设置后,你就可以进入标注界面。在标注界面中,如果是单个帧的图片,可以选择"shape"按钮进行单帧标注。如果是连续帧的视频,可以选择"track"按钮进行连续帧标注。按照COCO数据集的顺序,依次标注17个关键点。如果某个关键点被遮挡,可以右键点击该点并将其属性修改为遮挡属性。如果某个关键点被截断,可以右键点击该点并将其属性修改为截断属性。其他可见的点的属性值应为2。 最后,你可以导出标注好的数据集供Yolov8-Pose算法使用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [yolov8-pose姿态估计数据集制作(一)](https://blog.csdn.net/weixin_39274106/article/details/130405600)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值