CVPR 2024: 在笔记本电脑上分割医学图像的任何内容
ORGANIZED BY: Junma (medseg20s@gmail.com)
CURRENT PHASE ENDS: 2024年5月15日 GMT+8 08:00
CURRENT SERVER TIME: 2024年2月9日 GMT+8 13:59
https://www.codabench.org/competitions/1847/
概述
医学图像分割是临床实践中的关键步骤,用于准确量化解剖结构和病理区域。当前,该领域正在经历一个范式转变,从专门为个别任务设计的模型转向能够处理多种分割场景的基础模型。然而,大多数现有的分割基础模型主要针对自然图像,或者在推理过程中通常需要大量计算资源。这一限制在临床环境中广泛应用这些模型时构成了重要障碍。
该挑战旨在寻找能够在笔记本电脑或其他边缘设备上部署、无需依赖GPU的通用可提示的医学图像分割模型。具体而言,挑战任务是开发一种基于轻量级边界框的分割模型,我们提供了一个包含1,000,000多个图像-掩模对的大规模训练数据集,涵盖了10种医学图像模态和20多种癌症类型。
我们设想这个挑战将推动通用医学图像分割模型的方法论发展,具有广泛适用性,并促进用户友好的互动,使先进的分割工具更容易被更广泛范围的医疗服务提供者所采用。
加入挑战(注册截止日期:2024年5月1日)
步骤0. 在此处获取资格(每个团队只需一个参赛编号)。
步骤1. 加入挑战并下载训练数据
填写注册表
在收到您的申请后的1-3个工作日内,我们将向您发送数据下载链接。
注意:请在团队名称中仅使用小写字母和数字!不要使用空格或特殊字符。
验证提交(2024年2月15日-5月15日)
所有团队都可以直接在挑战页面上提交分割结果,以获取分割准确度指标。
所有团队还可以进行Docker提交。为避免提交阻塞,每个团队每月只能进行一次Docker提交。
要进行Docker提交,请发送电子邮件至medseg20s@gmail.com:(电子邮件主题:YourTeamName-TeamLeaderName-验证提交)
(1)您的Docker容器的下载链接(团队名称.tar.gz文件大小 < 5GB)。
(2)一个健全性测试视频(示例:待定)。请在验证案例上测试您的Docker并记录预测过程。对于每个案例,运行时间应在30秒内。
当评估完成后,我们将通过电子邮件返回指标。
测试提交(2024年5月15日-5月20日)
为避免对测试集进行过拟合,我们仅提供一次成功提交的机会。
提交应包括:(电子邮件主题:YourTeamName-TeamLeaderName-测试提交)
(1)您的Docker容器的下载链接(teamname.tar.gz);
(2)一个健全性测试视频记录(下载示例:待定)请在验证案例上测试您的Docker并记录预测过程。对于每个案例,运行时间应在30秒内。
(3)技术报告(模板待定)
所提交的Docker容器将使用以下命令进行评估。如果Docker容器无法工作或论文未包含重现方法所需的所有必要信息,我们将返回错误信息和评论以供参与者审查。
所提交的Docker容器将使用以下命令执行
docker load -i teamname.tar.gz
docker container run -m 8G --name teamname --rm -v PWD/MedSAM Test/:/workspace/inputs/−vPWD/teamname_outputs/:/workspace/outputs/ teamname:latest /bin/bash -c "sh predict.sh"
注意:推理过程应仅使用CPU,评估平台不提供GPU支持。
🏆奖项
我们将为前5名团队提供现金奖金或纪念品。
前5名团队将被邀请在CVPR 2024期间进行口头演示(现场或在线)。
前5名团队的第一作者将被邀请为挑战总结论文做出贡献。
前10名团队将获得证书。(前几名团队应在GitHub上完全公开他们的代码以便重现。)
所有团队都有机会在挑战论文集(暂定为LNCS,EI索引)中发表他们的方法。这是我们之前FLARE挑战的一个示例。
参考文献:
[1] A. Kirillov, E. Mintun, N. Ravi, H. Mao, C. Rolland, L. Gustafson, T. Xiao, S. Whitehead, A. C. Berg, W.-Y. Lo, P. Dollar, and R. Girshick, “Segment anything,” in ICCV, 2023, pp. 4015–4026.
[2] X. Zou, J. Yang, H. Zhang, F. Li, L. Li, J. Gao, and Y. J. Lee, “Segment everything everywhere all at once,” in NeurIPS, 2023.
[3] J. Ma, Y. He, F. Li, L. Han, C. You, and B. Wang, “Segment anything in medical images,” Nature Communications, 15, 654, 2024.