TPU编程竞赛系列|基于TPU-MLIR实现UNet模型部署,比“快”更快!

由算能举办的TPU编程竞赛-AI应用挑战赛正式开赛啦!本次大赛会为选手们提供一个预训练的分割模型UNet及数据集,无需训练模型,选手使用算能的MLIR开源编译器进行编译、量化及调优,兼顾精度与推理速度,最终实现UNet模型在算能1684X芯片上的部署。

图像分割是图像处理和计算机视觉领域的一个重要课题,广泛应用于场景理解、医学图像分析、机器人感知、视频监控、增强现实和图像压缩等领域,UNet作为经典的神经网络,在图像分割任务中具有大量的应用。

有许多新的方法在此基础上融合改进,基于UNet的模型简单、高效,可以从小数据集中训练就能获得很好的效果,将UNet移植到TPU上可以进一步放大模型的优势,在实际的AI部署中非常有价值

本次比赛要求使用开源的TPU-MLIR进行编译。TPU-MLIR项目是算能智能AI芯片的TPU编译器工程。该工程提供了一套完整的工具链,其可以将不同框架下预训练的神经网络,转化为可以在算能TPU上高效运算的二进制文件。

TPU编程竞赛作为一个高水平的AI竞赛平台,致力于为国家发现和培育AI算法人才、极致挖掘TPU硬件澎湃算力、用算法和软件的创新解决社会或业务问题,激发开源创新活力,培养开源实践人才,助力开源生态建设。

评估标准

客观部分(0-1.3分)

1. 通过dice指标评估模型精度;

2. 通过模型推理时间评估模型性能,单位为秒;

3. 最终得分计算公式为: score = dice_score + (0.3 - time_score),结果将会精确到小数点后三位,例如0.728;

4. 要求精度dice不低于0.85,平均推理延时小于0.3s。

主观部分(0-0.5分)

1. 清楚的描述整个UNet适配过程

    a. 步骤详细

    b. 结果可复现

2. 给出几个解决问题的过程

    a. 列举一下在适配过程中遇到的困难以及解决方法

3. 提出一些TPU-MLIR可以改进的部分

    a. 在使用上可以精简的地方

    b. 在功能上可以增强的地方(需具备可行性)

4. 介绍一下对TPU-MLIR工程的看法

    a. 对MLIR的看法

    b. 对TPU-MLIR在DSA相关编译器的看法

    c. 对TPU-MLIR在异构计算编译器方面的看法

5. 提交补丁到TPU-MLIR工程(可选,加分项)

    a. 可以是文档修正

    b. 代码注释

    c. 修复bug

减分项:

    1. 作品抄袭

    2. 伪造测试结果

    3. 作品无法复现

    4. 过程描述混乱和造假

赛事声明

1. 为了确保整个大赛顺利、公正地进行,以及保证参赛选手的合法权益,参赛选手报名时应阅读和确认大赛官网上的参赛协议,自觉遵守协议规定; 

2. 在大赛举办过程中,竞赛规程可能会有少量的变更和调整,所有内容均以大赛官网为准;

3. 本大赛规程的最终解释权归TPU编程竞赛委员会所有。

竞赛链接:基于TPU-MLIR实现UNet模型部署
 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值