YOLOv8训练好模型后,追加轮数继续训练、或者提前终止训练,缩减训练轮数

一、前言

而且此教程适用的情况是你已经训练好了此模型,想继续追加一些轮数。比如训练进度是120/120,已经完成了,继续追加10轮,或者你原先定的是200轮,希望缩减到150轮,可以使用我说的这个方法。为什么缩减也要改一些东西呢?我直接不训练了不就可以了吗?这是因为没有训练完所有epoch,不会输出P、PR曲线等指标;或者说你不想一直盯着看,希望准确地缩减到某轮数,自动停止。

如果你不需要追加训练,只想缩减训练,那么直接看这个博客即可:YOLOv8断点恢复、减少训练轮数、提前终止。这篇博客是本篇博客的一个子集。如果想追加,那下面这些必须全都做。也就是说,项追加训,必须得先实现删减轮数的功能…

以下内容全在trainer.py中进行。前言这部分讲原理,如果不想看,可以直接看二部分。
1.对一个已经训练好的模型,也就是规定100轮,然后也训练了100轮,做了下实验:

    def resume_training(self, ckpt):
        """Resume YOLO training from given epoch and best fitness."""
        if ckpt is None:
            return
        best_fitness = 0.0
        ...
        start_epoch = ckpt["epoch"] + 1
        print(ckpt)
		...

输出结果:

{'epoch': -1, 'best_fitness': None,...}

说明训练好后,ckpt[“epoch”]会变成-1,然而我找了一下午也没找到入口在哪里,**知道的同学可以告诉我一下吗?谢谢。**解释一下,这里的ckpt是存储在权重文件,也就是xxx.pt中的一个字典。

2.另外,打印save_dir的路径:

def __init__(self, cfg=DEFAULT_CFG, overrides=None, _callbacks=None):

        self.args = get_cfg(cfg, overrides)
        self.resume_epochs = self.args.epochs
        self.check_resume(overrides)
        print(self.args.save_dir)

发现结果是报错,而这个参数在未训练完成时,是"runs/detect/train"。对比情况如下:在这里插入图片描述
这说明训练完后,这个save_dir参数被自动删掉了,而这个参数是指引上一次训练结果输出的位置的。所以,这个参数被删掉也会使得resume时不会读上一次训练的目录,而是新创一个。被删除的原因应该和1一样,是在训练完成后自动被处理的。我也没找到具体代码,但我觉得可能在callback函数里,知道的大佬可以告诉我一下吗?

综上,我们要做的就是把save_dir和ckpt[epoch]这两个参数手动恢复。

二、修改方法

注意添加的代码位置,最好跟我位置一样。
步骤1.在trainer.py的__init__() 构造函数里,先用一个变量接收config的epochs

    def __init__(self, cfg=DEFAULT_CFG, overrides=None, _callbacks=None):
        """
        Initializes the BaseTrainer class.

        Args:
            cfg (str, optional): Path to a configuration file. Defaults to DEFAULT_CFG.
            overrides (dict, optional): Configuration overrides. Defaults to None.
        """
        self.args = get_cfg(cfg, overrides)
        ################修改处################
        self.resume_epochs = self.args.epochs# 添加变量接收config,即你规定的epochs
        ######################################
        self.check_resume(overrides)
		...
		...
		...

步骤2. 在check_resume里,添加上一次训练的输出位置,并且恢复self.epochs

    def check_resume(self, overrides):
        """Check if resume checkpoint exists and update arguments accordingly."""
        resume = self.args.resume
        if resume:
            try:
                ...
                ckpt_args = attempt_load_weights(last).args
                #####################修改处↓#####################
                ckpt_args["save_dir"] = "runs\\detect\\train"# <--- 修改处
                #####################修改处↑####################
                ...
				self.args = get_cfg(ckpt_args)
                ############修改处#####################
                self.args.epochs = self.resume_epochs #重新覆盖self.args.epochs数值 
                #######################################
                self.args.model = str(last)  # reinstate model
            	...
            	...

步骤3. 手动添加上次训练好的模型的终止epoch数-1。比如上次我训练了120轮,结束了,我这里就要写120-1=119。一定要-1哈。 因为我们是手动添加的epoch,所以要注意,这个数加进去之后,我们要多注意,我详细说下:刚才不是说了吗,如果在训练过程中,这个epoch是正常的,所以我们手动设置了ckpt[“epoch”]后,训练过程中,它是会正常变化的。但训练完后,还会变成-1,如果像继续训练,则要继续改。这里要一直注意到这个参数,会比较动态。比如我们从训练完的120轮再追加30轮,训练到150轮后,epoch又变成-1,如果我们再想追加10轮,那么这里要改成150-1=149,然后继续训练。

    def resume_training(self, ckpt):
        """Resume YOLO training from given epoch and best fitness."""
        if ckpt is None:
            return
        best_fitness = 0.0
        ###############################
        if ckpt["epoch"] == -1:  #修改处
        	ckpt["epoch"] = 119 # 修改处
        ################################
        start_epoch = ckpt["epoch"] + 1
        ...

步骤4. 修改你的启动训练参数,比如,120 -> 150

from ultralytics import YOLO
if __name__ == '__main__':

    model = YOLO("runs\\detect\\train\\weights\\last.pt")
    results = model.train(data="C:\\Users\\Administrator\\Desktop\\ultralytics-main\\ultralytics-main\\ultralytics\\datasets\\mask\\data.yaml", epochs=150, batch=4, workers=2, resume=True, device=0)

结束,效果如下,我从训练完的120轮有追加了1轮。
在这里插入图片描述

  • 31
    点赞
  • 52
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
如果您下载了本程序,但是该程序存在问题无法运行,那么您可以选择退款或者寻求我们的帮助(如果找我们帮助的话,是需要追加额外费用的)。另外,您不会使用资源的话(这种情况不支持退款),也可以找我们帮助(需要追加额外费用) 在神经反馈实验过程中可实时观察并记录 EEG 信号和神经反馈实验标记。拥有一套被试数据管理系统,方便管理被试每次实验的数据。 MATLAB(Matrix Laboratory)是一款由美国MathWorks公司开发的高性能商业数学软件,它集成了高级技术计算语言、交互式环境以及丰富的工具箱,被广泛应用于工程计算、数据分析、算法开发和科学可视化等领域。MATLAB的核心功能包括: 1. **数值计算**:支持大规模矩阵和数组运算,对线性代数、微积分、概率统计等数学问题提供高效解决方案。 2. **编程环境**:提供了易于使用的脚本编写与函数定义界面,支持面向对象编程,并可通过M文件实现模块化程序设计。 3. **数据可视化**:内置强大的二维和三维图形绘制功能,能够创建高质量的数据图表,便于数据分析和结果展示。 4. **工具箱扩展**:MathWorks为MATLAB提供了众多领域的专业工具箱,如信号处理、图像处理、通信系统、控制系统、机器学习、深度学习、量化金融、优化算法等,极大地扩展了MATLAB的应用范围。 5. **Simulink仿真**:作为MATLAB的重要组成部分,Simulink是一个动态系统建模、仿真和基于模型的设计环境,特别适用于多域物理系统和嵌入式系统的模拟和实时测试。 6. **集成能力**:MATLAB可以与其他编程语言(如C、C++、Java、Python等)及外部应用程序进行数据交换和联合开发,也可以调用硬件接口进行实时实验和控制。 7. **交互式工作空间**:用户可以在命令窗口中直接输入表达式并立即得到结果,这种交互式的特性使得快速原型设计和调试变得极为便利。 总之,MATLAB是科学家、工程师和技术人员进行科研、教育和工业应用不可或缺的强大工具之一,尤其在需要大量数值计算和复杂系统建模的场景下发挥着重要作用。
追加训练yolov8模型,你可以按照以下步骤进行操作: 1. 首先,确定你想要从哪个epoch开始继续训练。如果你的训练过程中中断了,你可以选择上次中断的最后一个epoch;如果你想在训练完毕但未收敛的基础上继续训练,你可以选择已经训练的最后一个epoch。 2. 加载上次暂停的最后一个epoch保存的模型文件。你可以使用"from ultralytics import YOLO"导入YOLO类,然后使用"model = YOLO('./runs/detect/train/weights/last.pt')"加载模型文件。这将加载一个部分训练好的模型。 3. 开始重启训练。你可以使用"model.train(resume=True)"来重新开始训练。这将从上次中断的地方继续训练,或者从部分训练好的模型开始继续训练。 4. 训练结束后,你可以评估模型的性能。使用"metrics = model.val()"来评估模型,并获取评估指标。 需要注意的是,追加训练会从上次中断的地方继续训练,或者从部分训练好的模型开始继续训练。这意味着,如果你选择从第98个epoch开始继续训练训练将从第98个epoch的基础上继续进行,直到达到你想要的epoch数量,比如300个epoch。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [yolov5 继续训练](https://blog.csdn.net/weixin_44057060/article/details/124349715)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [YOLOv8从断点处继续训练](https://blog.csdn.net/Albert233333/article/details/131388478)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值