SAM(Segment Anything)大模型论文汇总

该篇文章综述了SegmentAnything(SAM)模型的最新研究进展,涵盖了基础背景、应用优势与局限性,以及在医疗、移动设备和遥感图像等领域的适应方法。文章还提到了多个SAM相关项目和预训练技术,如TinyViT和SAM-IQA,展示了大模型在不同场景下的潜力和优化策略。
摘要由CSDN通过智能技术生成

A Comprehensive Survey on Segment Anything Model for Vision and Beyond

论文:https://arxiv.org/abs/2305.08196

25页综述,198篇参考文献!52个开源项目!本文第一个全面回顾了分割一切模型(SAM)的研究和应用进展,介绍了基础背景,总结了SAM在各种图像处理应用中的优势和局限性。

 

 相关SAM项目索引

 

How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Image Domains

论文:https://arxiv.org/pdf/2306.13731.pdf

代码:https://github.com/xhu248/AutoSAM

解读:医疗SAM也来啦 | AutoSAM告诉你如何在医疗领域更快更好开发大模型 - 知乎 (zhihu.com)

 

AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt Encoder

论文:https://arxiv.org/abs/2306.06370

Faster Segment Anything: Towards Lightweight SAM for Mobile Applications

论文:https://arxiv.org/abs/2306.14289

代码:https://github.com/ChaoningZhang/MobileSAM

解读:【论文解读】比sam小60倍的轻量级模型mobilesam(Faster Segment Anything) - 知乎 (zhihu.com)

MobileSAM来啦 | 比SAM小60倍,比FastSAM快4倍,速度和效果双赢 - 知乎 (zhihu.com)

Segment Anything in High Quality

论文:https://arxiv.org/abs/2306.01567

代码:https://github.com/SysCV/SAM-HQ

解读:苏黎世理工 & 港科大震撼力作 HQ-SAM:SAM新秀-高质量分割一切模型 - 知乎 (zhihu.com)

TinyViT: Fast Pretraining Distillation for Small Vision Transformers

论文:https://arxiv.org/abs/2207.10666

代码:https://github.com/wkcn/tinyvit

解读:【论文解读】TinyVit:快速蒸馏vit,可替换sam的vit(mobilesam) - 知乎 (zhihu.com)

ECCV 22|大数据的红利我吃定了!微软开源TinyViT :搞定小模型的预训练能力 - 知乎 (zhihu.com)

Fast Segment Anything

论文:https://arxiv.org/abs/2306.12156

代码:https://github.com/CASIA-IVA-Lab/FastSAM

解读:中科院自动化所发布Fast SAM | 精度相当,速度提升50倍!!! - 知乎 (zhihu.com)

SAM-IQA: Can Segment Anything Boost Image Quality Assessment?

论文:https://arxiv.org/abs/2307.04455

代码:https://github.com/Hedlen/SAM-IQA

解读:旷视提出SAM-IQA:分割一切模型可以提高图像质量评估吗? - 知乎 (zhihu.com)

RSPrompter: Learning to Prompt for Remote Sensing Instance Segmentation based on Visual Foundation Model

论文:https://arxiv.org/abs/2306.16269

代码:https://github.com/KyanChen/RSPrompter

解读:RSPrompter:遥感图像实例分割利器,基于SAM实现自动分割 - 知乎

RSPrompter - 知乎 (zhihu.com)

SAMMed: A medical image annotation framework based on large vision model

论文:https://arxiv.org/abs/2307.05617

解读:SAM-Med | 英伟达基于SAM提出医学图像标注效率神器 - 知乎 (zhihu.com)

SAMAug: Point Prompt Augmentation for Segment Anything Model

论文:https://arxiv.org/abs/2307.01187

解读:SAM增强技术 | SAMAug提出Point Prompt增强,让SAM模型天天向上 - 知乎 (zhihu.com)

Semantic-SAM: Segment and Recognize Anything at Any Granularity

论文:https://arxiv.org/abs/2307.04767

代码:https://github.com/UX-Decoder/Semantic-SAM

解读:港科&微软 | Semantic-SAM:多粒度的语义通用分割模型 - 知乎 (zhihu.com)

Semantic SAM: 多粒度、多语义的统一分割模型 - 知乎 (zhihu.com)

大模型学习笔记

大模型学习笔记 - 知乎 (zhihu.com)

LLM 系列超详细解读 (一):GPT:无标注数据的预训练生成式语言模型 - 知乎

LLM 系列超详细解读 (二):GPT-2:GPT 在零样本多任务学习的探索 - 知乎

LLM 系列超详细解读 (三):GPT-3:大型语言模型是少样本学习器 - 知乎

多模态超详细解读 (四):VLMo:混合多模态专家的视觉语言预训练 - 知乎

多模态超详细解读 (六):BLIP:统一理解和生成的自举多模态模型 - 知乎

Segment Anything(sam)项目整理汇总[2023.7.21] - 知乎 (zhihu.com)

SAM开源库

[0] dk-liang/Awesome-Segment-Anything

[1] liliu-avril/Awesome-Segment-Anything

[2] VainF/Awesome-Anything

[3] Hedlen/awesome-segment-anything

[4] Vision-Intelligence-and-Robots-Group/Awesome-Segment-Anything

[5] JerryX1110/awesome-segment-anything-extensions

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值