数据集【NO.10】天池布匹瑕疵检测

 写在前面:数据集对应应用场景,不同的应用场景有不同的检测难点以及对应改进方法,本系列整理汇总领域内的数据集,方便大家下载数据集,若无法下载可关注后私信领取。关注免费领取整理好的数据集资料!今天分享一个非常好的非常小众的研究方向,有应用创新,可有利于发小论文和大论文,有需要的朋友可私信我。

百度网盘链接:https://pan.baidu.com/s/1VbuZlaFcCPuTPf9XuyOV0w 
提取码:关注后私信

话不多说直接上图:本天池布匹瑕疵数据集样本图如下所示 ,分为7个类别names:
 0:污渍
1:三丝
2:结头
3:浆斑
4:松经
5:粗维

 

对数据集进行可视化分析,得到如图所示: 

数据集一共2496张图片。原数据集格式为json格式,已转换为YOLO格式。

非常好的非常小众的研究方向,有应用创新,可有利于发小论文和大论文,有需要的朋友可私信我。

  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 9
    评论
天池布匹瑕疵目标检测使用的是YOLO(You Only Look Once)算法YOLO是一种实时目标检测算法,它能够在一张图像中同时检测出多个目标,并给出它们的位置和类别。 在天池布匹瑕疵目标检测比赛中,使用的是YOLOv3算法YOLOv3是YOLO系列中的最新版本,相比于之前的版本,它在检测精度和速度上都有所提升。 要使用YOLOv3进行布匹瑕疵目标检测,首先需要准备好训练数据集和标注文件。然后,可以使用YOLOv3的预训练模型进行目标检测,或者自己训练一个模型。 以下是使用YOLOv3进行布匹瑕疵目标检测的步骤: 1. 准备数据集和标注文件:将布匹瑕疵的图像和对应的标注文件放在同一个文件夹中,标注文件应该包含每个目标的类别和边界框的位置信息。 2. 下载YOLOv3的预训练模型:可以从互联网上下载YOLOv3的预训练模型,例如Darknet官方网站提供的模型。 3. 安装YOLOv3的依赖库:需要安装OpenCV、NumPy和其他一些依赖库。 4. 加载模型和配置文件:使用OpenCV加载YOLOv3的模型和配置文件。 5. 运行目标检测:将布匹瑕疵的图像输入到YOLOv3模型中,模型会输出检测到的目标的类别和位置信息。 6. 可视化结果:可以将检测结果绘制在图像上,以便查看检测效果。 下面是一个使用YOLOv3进行布匹瑕疵目标检测的示例代码: ```python import cv2 import numpy as np # 加载模型和配置文件 net = cv2.dnn.readNetFromDarknet('yolov3.cfg', 'yolov3.weights') layer_names = net.getLayerNames() output_layers = [layer_names[i[0] - 1] for i in net.getUnconnectedOutLayers()] # 加载图像 image = cv2.imread('image.jpg') height, width, channels = image.shape # 对图像进行预处理 blob = cv2.dnn.blobFromImage(image, 0.00392, (416, 416), (0, 0, 0), True, crop=False) net.setInput(blob) # 运行目标检测 outs = net.forward(output_layers) # 解析检测结果 class_ids = [] confidences = [] boxes = [] for out in outs: for detection in out: scores = detection[5:] class_id = np.argmax(scores) confidence = scores[class_id] if confidence > 0.5: # 计算边界框的位置 center_x = int(detection[0] * width) center_y = int(detection[1] * height) w = int(detection[2] * width) h = int(detection[3] * height) x = int(center_x - w / 2) y = int(center_y - h / 2) # 保存类别、置信度和边界框的位置信息 class_ids.append(class_id) confidences.append(float(confidence)) boxes.append([x, y, w, h]) # 非极大值抑制,去除重叠的边界框 indexes = cv2.dnn.NMSBoxes(boxes, confidences, 0.5, 0.4) # 绘制检测结果 font = cv2.FONT_HERSHEY_SIMPLEX for i in range(len(boxes)): if i in indexes: x, y, w, h = boxes[i] label = str(class_ids[i]) confidence = confidences[i] color = (0, 255, 0) cv2.rectangle(image, (x, y), (x + w, y + h), color, 2) cv2.putText(image, label, (x, y - 10), font, 0.5, color, 2) # 显示结果图像 cv2.imshow("Image", image) cv2.waitKey(0) cv2.destroyAllWindows() ``` 这是一个简单的示例代码,实际使用时可能需要根据具体情况进行调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能算法研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值