1.数据集制作(本系列包含:从数据集制作开始到目标识别,最后利用PYQT进行可视化展示)

9.16进行下次更新 博主最近正忙着改论文(小修)

本系列正在抓紧制作中,请点个关注和收藏,方便您进行能够及时收到后续更新。
若您有相关建议和意见,请在评论区对我进行批评指正,方便我进行相应改进,不胜感激!(例如:不够“傻瓜”)

系列文章目录:

  • 1.数据集制作
    • 1.1 爬虫采集数据
    • 1.2 图像生成(GAN网络)
    • 1.3 数据集打标签
  • 2.骨干网络的对比
  • 3.基于YOLOv8S的目标识别
  • 4.PYQT进行可视化
  • 5.YOLOv8更换骨干网络
  • 6.各种魔改YOLOv8(待定,视情况)

文章目录

  • 前言
  • 一、项目环境
  • 二、爬虫采集数据
    • 2.1环境库配置
    • 2.2 爬虫界面展示和应用
  • 三、图像生成(GAN网络)
  • 四、数据集打标签
  • 五、Easy Work小脚本
  • 六、本系列其余文章链接
  • 总结


前言

随着人工智能的不断发展,目标识别这门技术也越来越重要,但苦于教学颇多且但大部分晦涩难懂,因此本人在完成某项目以后,决定分享项目经验,便于后人进行实验。本章节包含以下内容:
1.数据集制作
1.1 数据集爬虫采集
1.2 图像生成(GAN网络)
1.3 数据集打标签

注1:本系列文章目的是在冗杂的目标检测中梳理整理出一个“傻瓜式”教学资源,暂时不会教授任何原理性课程,后续可能分享相关大佬资源链接,仅供参考!

注2:本次分享均为我项目中实际运用的,除个人贡献外,也参考了github、b站、CSDN等网站上的资源,但因资源冗杂、时间久远,有些来源遗忘,若有侵权,请及时联系本人,以防给您带来侵权等不便!

先给您赔个不是,希望海涵!


一、项目环境

项目环境如下:

  • 解释器:Python
  • 框架:Pytorch
  • IDEA:Pycharm
  • 管理:Anaconda3
  • 系统:windows 11
  • 相应的环境库在对应章节里面会给出。

本项目不涉及基础环境配置,如Python、Pycharm、Anaconda等安装。


二、爬虫采集数据

2.1环境库配置

爬虫我是使用的github上开源的代码,其地址如下:

https://github.com/QianyanTech/Image-Downloader/tree/master

将项目解压下载到本地以后,打开Anaconda Powershell Prompt

在这里插入图片描述

并键入以下内容创建环境:

conda create -n snake python=3.8

注:此处暂时这样,后续会统一环境名,您也可以换成您喜欢的环境名。

摁y确认以后键入以下内容激活环境:

activate snake

然后CD到你下载的文件夹目录下,然后回车,将环境导入到相关文件夹下,例如:

在这里插入图片描述

然后键入以下内容导入相应的库:

pip install -r requirements.txt

2.2 爬虫界面展示和应用

用Pycharm打开下载的文件夹,并选取刚刚配置的环境snake,运行image_downloader_gui.py文件。

其页面和简单使用方法如下:

在这里插入图片描述

建议使用Baidu、Bing(此时不能开梯子),Google有时候会报错。

爬取结果如下:

在这里插入图片描述

在这里插入图片描述

若有需要,以后会录个教学视频并上传b站,以供参考。


三、图像生成(GAN网络)

尚未整理,后续内容,敬请期待!


四、数据集打标签

我是使用的免费开源打标签的网址,其地址如下:

https://www.makesense.ai/

其使用方法十分简便,不需要安装对应库等操作,只需在网页进行操作,但要注意个人数据隐私保护。

使用方法如视频所示:

如果视频加载困难请移步本人b站视频:

数据集简单方法制作

后续操作演示也将在本人b站账号上传分享,请您可以点个关注和收藏,方便您进行能够及时收到后续更新。


五、Easy Work小脚本

尚未整理,后续内容,敬请期待!


六、本系列其余文章链接

yolov8进行目标识别全过程教学目录
1.数据集制作
后续内容,尚未整理,敬请期待!


总结

以上就是本章节要讲的内容,本章节仅介绍了数据集制作的流程,各部分详情请点击相应文章链接进行阅读观看。

  • 6
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
非常好的项目!现在我将为你详细介绍如何基于卷积神经网络实现手写数字图片识别,并用GUI进行可视化。 首先,你需要准备一个手写数字图片数据集,可以使用MNIST数据集,这是一个广泛使用的手写数字图片数据集包含60000个训练样本和10000个测试样本。使用Python中的Keras库进行卷积神经网络的构建,可以使用TensorFlow或者Theano作为后端。 在构建卷积神经网络之前,需要将手写数字图片数据集进行预处理,包括图像的归一化、灰度化、二值化等操作。归一化可以将图像的像素值缩放到0-1之间,灰度化可以将图像转换为灰度图像,二值化可以将图像转换为黑白二值图像。这些预处理操作可以提高卷积神经网络的准确率。 接下来,可以使用Keras中的Conv2D、MaxPooling2D、Flatten、Dense等层进行卷积神经网络的构建。其中,Conv2D层用于卷积操作,MaxPooling2D层用于池化操作,Flatten层用于将卷积层的输出展平,Dense层用于输出层的构建。可以根据实际情况调整每个层的参数,例如卷积核的大小、步长、填充方式等等。 在训练模型之前,需要将数据集分为训练集和测试集,可以使用Keras中的train_test_split函数进行随机划分。然后,可以使用compile函数对模型进行编译,包括选择损失函数、优化器、评估指标等等。最后,可以使用fit函数对模型进行训练,设置训练的批次大小、迭代次数等等。 完成模型的训练之后,可以使用GUI进行可视化。可以使用Python中的Tkinter库或者PyQt进行GUI的设计和实现。可以在GUI界面上添加一个画布,用于用户手写数字的输入,然后将用户输入的数字转换为灰度图像,并输入到卷积神经网络中进行预测。预测结果可以显示在GUI界面上,供用户查看。 总的来说,基于卷积神经网络实现手写数字图片识别并用GUI进行可视化是一个非常有趣和有用的项目,可以提高你对深度学习和图形用户界面的理解和应用能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值