【论文10】复现代码tips

一、准备工作

1.创建一个虚拟环境

conda create --name drgcnn38 python=3.8.18

2.激活虚拟环境

conda activate drgcnn38

注意事项

在Pycharm中终端(terminal)显示PS而不是虚拟环境base

问题如下所示

解决方法:shell路径改成cmd.exe

重启终端显示虚拟环境

3.安装torch 

conda install pytorch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 cpuonly -c pytorch

安装一系列包

注意事项

Pycharm远程连接Linux服务器实现代码同步

1.工具-->部署-->配置

2.选择SFTP远程连接,路径填与服务器要同步的路径地址

二、代码学习

各部分的作用

  • eye_pre_process:视网膜眼底图像预处理模块。
  • Encoder:编码器训练模块。
  • modules:包含模型结构、损失函数和学习率降低策略。
  • utils:包含一些常用函数和评估指标。
  • BFFN:双眼特征融合网络训练模块。
  • CAM:类别注意力模块。

eye_pre_process

copy.py

# 创建一个ArgumentParser对象,用于处理命令行参数  
parser = argparse.ArgumentParser()  
  
# 添加一个命令行参数 '--image-folder',类型为字符串,默认值为 'D:/cv_paper/lesson/Dataset/ceshi'  
# 这个参数用于指定输入图像的文件夹路径  
parser.add_argument('--image-folder', type=str, default=r'D:/cv_paper/lesson/Dataset/ceshi')  
  
# 添加一个命令行参数 '--output-folder',类型为字符串,默认值为 'D:\cv_paper\lesson/Dataset/ceshi_output'  
# 注意:这里路径中的反斜杠在不同的操作系统中可能需要特别注意,Python字符串中推荐使用原始字符串(r前缀)来避免转义字符的问题  
# 这个参数用于指定输出结果的文件夹路径  
parser.add_argument('--output-folder', type=str, default=r'D:\cv_paper\lesson/Dataset/ceshi_output')  
  
# 添加一个命令行参数 '--crop-size',类型为整数,默认值为512  
# 这个参数用于指定图像裁剪的大小  
parser.add_argument('--crop-size', type=int, default=512, help='crop size of image')  
  
# 添加一个命令行参数 '-n' 或 '--num-processes',类型为整数,默认值为8  
# 这个参数用于指定处理任务时要使用的进程数  
# '-n' 是 '--num-processes' 的简写形式,帮助信息说明了该参数的作用  
parser.add_argument('-n', '--num-processes', type=int, default=8, help='number of processes to use')
# 转换一个包含多个任务的列表,每个任务由文件名、目标路径和裁剪大小组成  
# 对于jobs列表中的每个任务(索引为j),它首先检查是否已经处理了100个任务(作为进度指示),然后调用convert函数来执行实际的图像转换。
def convert_list(i, jobs):  
    for j, job in enumerate(jobs):  
        # 每处理100个任务打印一次进度  
        if j % 100 == 0:  
            print(f'worker{i} has finished {j} tasks.')  
        # 解包任务元组并调用convert函数  
        convert(*job)  
  
# 转换单个图像文件,包括模糊处理、裁剪和保存  
def convert(fname, tgt_path, crop_size):  
    img = Image.open(fname)  # 打开图像文件  
  
    blurred = img.filter(ImageFilter.BLUR)  # 应用模糊滤镜  
    ba = np.array(blurred)  # 将图像转换为NumPy数组  
    h, w, _ = ba.shape  # 获取图像的高度、宽度和通道数  
  
    # 尝试根据图像的亮度分布来识别前景区域  
    if w > 1.2 * h:  
        # 计算左右两侧的最大亮度值  
        left_max = ba[:, :w // 32, :].max(axis=(0, 1)).astype(int)  
        right_max = ba[:, -w // 32:, :].max(axis=(0, 1)).astype(int)  
        max_bg = np.maximum(left_max, right_max)  
  
        foreground = (ba > max_bg + 10).astype(np.uint8)  # 识别前景区域  
        bbox = Image.fromarray(foreground).getbbox()  # 获取前景区域的最小边界框  
  
        # 如果边界框太小或不存在,则打印消息并可能设置为None  
        if bbox is None:  
            print(f'No bounding box found for {fname} (???)')  
        else:  
            left, upper, right, lower = bbox  
            if right - left < 0.8 * h or lower - upper < 0.8 * h:  
                print(f'Bounding box too small for {fname}')  
                bbox = None  
    else:  
        bbox = None  # 如果图像已经是合适的宽高比,则不尝试识别前景  
  
    # 如果未找到有效的边界框,则使用正方形边界框  
    if bbox is None:  
        bbox = square_bbox(img)  
  
    # 使用边界框裁剪图像,并调整大小  
    cropped = img.crop(bbox)  
    cropped = cropped.resize([crop_size, crop_size], Image.ANTIALIAS)  # 注意:ANTIALIAS可能是个拼写错误,应该是ANTIALIASIS  
    save(cropped, tgt_path)  # 保存图像  
  
# 返回一个正方形裁剪框的边界  
def square_bbox(img):  
    w, h = img.size  
    left = max((w - h) // 2, 0)  
    upper = 0  
    right = min(w - (w - h) // 2, w)  
    lower = h  
    return (left, upper, right, lower)  
  
# 保存PIL图像到文件  
def save(img, fname):  
    img.save(fname, quality=100, subsampling=0)  # 注意:subsampling参数可能不是所有格式都支持  
  
# 假设的main函数,用于组织整个流程(注意:这里只是一个示例)  
def main():  
    # 示例任务列表,每个任务是一个(文件名, 目标路径, 裁剪大小)元组  
    jobs = [  
        ('input1.jpg', 'output1_resized.jpg', 256),  
        ('input2.jpg', 'output2_resized.jpg', 256),  
        # ... 更多任务  
    ]  
      
    # 假设有一个工作者ID为1  
    convert_list(1, jobs)  
  
if __name__ == "__main__":  
    main()  

Encoder 

main.py

# 定义主函数入口  
def main():  
    # 解析配置参数  
    args = parse_configuration()  
    # 加载配置文件  
    cfg = load_config(args.config)  
    # 获取配置中保存的路径  
    save_path = cfg.config_base.config_save_path  
    # 如果保存路径不存在,则创建该路径  
    if not os.path.exists(save_path):  
        os.makedirs(save_path)  
    # 将配置文件复制到保存路径  
    copy_config(args.config, cfg.config_base.config_save_path)  
    # 执行工作函数  
    worker(cfg)  
  
# 定义工作函数,负责训练、验证和测试模型  
def worker(cfg):  
    # 根据配置生成模型  
    model = generate_model(cfg)  
    # 计算模型总参数数量  
    total_param = 0  
    for param in model.parameters():  
        total_param += param.numel()  
    print("Parameter: %.2fM" % (total_param / 1e6))  # 打印模型参数数量(单位:百万)  
    # 根据配置生成训练、验证和测试数据集  
    train_dataset, test_dataset, val_dataset = generate_dataset(cfg)  
    # 初始化性能评估器  
    estimator = PerformanceEvaluator(cfg.config_train.config_criterion, cfg.config_data.config_num_classes)  
    # 执行训练过程  
    train(  
        cfg=cfg,  
        model=model,  
        train_dataset=train_dataset,  
        val_dataset=val_dataset,  
        estimator=estimator,  
    )  
  
    # 测试最佳验证模型性能  
    print('This is the performance of the best validation model:')  
    checkpoint = os.path.join(cfg.config_base.config_save_path, 'best_validation_weights.pt')  
    cfg.config_train.config_checkpoint = checkpoint  # 设置检查点路径为最佳验证模型  
    model = generate_model(cfg)  # 重新生成模型以加载权重  
    evaluate(cfg, model, test_dataset, estimator)  # 评估模型性能  
  
    # 测试最终模型性能  
    print('This is the performance of the final model:')  
    checkpoint = os.path.join(cfg.config_base.config_save_path, 'final_weights.pt')  
    cfg.config_train.config_checkpoint = checkpoint  # 设置检查点路径为最终模型  
    model = generate_model(cfg)  # 重新生成模型以加载权重  
    evaluate(cfg, model, test_dataset, estimator)  # 评估模型性能  
  
# 如果此脚本作为主程序运行,则调用main函数  
if __name__ == '__main__':  
    main()

Encoder_predict.py

进行模型的训练,具体来说,它定义了一个训练循环&#x

  • 17
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLOv10 是YOLO(You Only Look Once)系列的最新版本,这是一种实时目标检测算法。YOLO算法以其高效的速度和相对较好的准确性而闻名。要复现YOLOv10代码,通常会涉及以下几个步骤: 1. **了解基本原理**:首先,你需要熟悉YOLO的核心概念,如单阶段检测、特征金字塔网络、锚点和预测头。 2. **获取代码库**:YOLOv10代码一般基于深度学习框架,如TensorFlow或PyTorch,你可以从GitHub上找到Darknet项目,这是YOLO的官方实现,或者Mmdetection、Detectron2等开源社区的版本。 3. **安装依赖**:确保你已经安装了必要的深度学习库和计算机视觉库,例如CUDA、cuDNN、torch、pycocotools等。 4. **预处理数据**:根据模型需求,你需要准备训练数据集,通常包括图片和对应的标注信息。PASCAL VOC、COCO等都是常见的目标检测数据集。 5. **配置文件**:YOLOv10的训练通常需要修改配置文件,比如设置学习率、训练轮数、模型结构参数等。 6. **编译模型**:如果你使用的是Darknet,可能需要编译模型,这一步骤依赖于源代码的构建系统。 7. **训练模型**:用预处理后的数据训练模型,这通常需要大量的GPU资源和时间。 8. **评估和验证**:训练完成后,用验证集评估模型性能,调整参数可能需要多次迭代。 9. **推理**:最后,使用训练好的模型对新的图像进行目标检测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值