yoloV8开发小游戏脚本(塔防精灵)

一、环境准备

1.本机已准备环境

python:3.10.13
在conda里激活环境后,使用python -V 查询python版本

CUDA:11.6
在cmd里面使用 nvidia-smi 查询版本

2.添加Torch、torchvision环境

2.1 先查看python与Torch、torchvisoion的版本对应关系
首先在pytorch官网里看到这个

在这里插入图片描述
我的CUDA是11.6的,所以torch选择1.13.1
从conda进入虚拟环境中,输入

conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.6 -c pytorch -c nvidia

没有镜像下太慢了,换一个下
在这个博主这里torch下载找到了下载,版本是1.12.0

pip install torch==1.12.0+cu116 torchvision==0.13.0+cu116 --extra-index-url https://download.pytorch.org/whl/cu116

安装好了为这样
在这里插入图片描述

二、下载YOLOV8

1. 下载yolov8源码

yolov8下载通过网站下载压缩包,然后解压用pycharm打开
在这里插入图片描述

在打开的项目终端
pip install -r requirements.txt -i https://pypi.mirrors.ustc.edu.cn/simple/
下载所需依赖

在这里插入图片描述
然后还需要安装ultralytics,目前YOLOv8核心代码都封装在这个依赖包里面,
可通过以下命令安装 pip install ultralytics
如果一直安装失败超时,试试这个
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple ultralytics

我一开始用上面那个安装失败了好几次,然后最后试了一下,想着不行换下面的,没想到成功了,自己安装了看吧,下面的没试过
在这里插入图片描述

2.下载权重模型

下载地址:https://docs.ultralytics.com/models/yolov8/#supported-tasks-and-modes

在这里插入图片描述

进入网站选择合适的模型点击蓝色字体下载

三、开始准备自己的数据集

1.在自己的游戏里截图

方法有很多,自己选择。我用的是之前自己写的后台截图,for循环一次性截了很多。

2.对截图进行标注
  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用YOLOv8训练后编写脚本的示例[^1][^2]: ```python import torch from models import Darknet from utils.datasets import LoadImagesAndLabels from utils.general import check_img_size, non_max_suppression, scale_coords from utils.torch_utils import select_device, time_synchronized # 设置设备 device = select_device('0') # 加载模型 model = Darknet('cfg/yolov3.cfg', img_size=416).to(device) model.load_state_dict(torch.load('weights/yolov3.pt', map_location=device)['model']) model.eval() # 加载数据集 dataset = LoadImagesAndLabels('data/train.txt', img_size=416, batch_size=8) dataloader = torch.utils.data.DataLoader(dataset, batch_size=8, shuffle=True, num_workers=4) # 训练脚本 for epoch in range(100): for batch_i, (imgs, targets, paths, shapes) in enumerate(dataloader): imgs = imgs.to(device) targets = targets.to(device) # 前向传播 with torch.no_grad(): outputs = model(imgs) # 后处理 outputs = non_max_suppression(outputs, conf_thres=0.5, iou_thres=0.5) # 打印结果 for output in outputs: if output is not None: output[:, :4] = scale_coords(imgs.shape[2:], output[:, :4], shapes) for x1, y1, x2, y2, conf, cls_conf, cls in output: print(f'预测结果:{cls.item()}') # 反向传播 loss = model(imgs, targets) loss.backward() optimizer.step() optimizer.zero_grad() # 打印损失 print(f'Epoch {epoch}, Batch {batch_i}, Loss: {loss.item()}') ``` 请注意,上述代码仅为示例,具体的脚本可能需要根据您的数据集和模型进行适当的修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值