A Comprehensive Survey on Segment Anything Model for Vision and Beyond
论文:https://arxiv.org/abs/2305.08196
25页综述,198篇参考文献!52个开源项目!本文第一个全面回顾了分割一切模型(SAM)的研究和应用进展,介绍了基础背景,总结了SAM在各种图像处理应用中的优势和局限性。
相关SAM项目索引
How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Image Domains
论文:https://arxiv.org/pdf/2306.13731.pdf
代码:https://github.com/xhu248/AutoSAM
解读:医疗SAM也来啦 | AutoSAM告诉你如何在医疗领域更快更好开发大模型 - 知乎 (zhihu.com)
AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt Encoder
论文:https://arxiv.org/abs/2306.06370
Faster Segment Anything: Towards Lightweight SAM for Mobile Applications
论文:https://arxiv.org/abs/2306.14289
代码:https://github.com/ChaoningZhang/MobileSAM
解读:【论文解读】比sam小60倍的轻量级模型mobilesam(Faster Segment Anything) - 知乎 (zhihu.com)
MobileSAM来啦 | 比SAM小60倍,比FastSAM快4倍,速度和效果双赢 - 知乎 (zhihu.com)
Segment Anything in High Quality
论文:https://arxiv.org/abs/2306.01567
代码:https://github.com/SysCV/SAM-HQ
解读:苏黎世理工 & 港科大震撼力作 HQ-SAM:SAM新秀-高质量分割一切模型 - 知乎 (zhihu.com)
TinyViT: Fast Pretraining Distillation for Small Vision Transformers
论文:https://arxiv.org/abs/2207.10666
代码:https://github.com/wkcn/tinyvit
解读:【论文解读】TinyVit:快速蒸馏vit,可替换sam的vit(mobilesam) - 知乎 (zhihu.com)
ECCV 22|大数据的红利我吃定了!微软开源TinyViT :搞定小模型的预训练能力 - 知乎 (zhihu.com)
Fast Segment Anything
论文:https://arxiv.org/abs/2306.12156
代码:https://github.com/CASIA-IVA-Lab/FastSAM
解读:中科院自动化所发布Fast SAM | 精度相当,速度提升50倍!!! - 知乎 (zhihu.com)
SAM-IQA: Can Segment Anything Boost Image Quality Assessment?
论文:https://arxiv.org/abs/2307.04455
代码:https://github.com/Hedlen/SAM-IQA
解读:旷视提出SAM-IQA:分割一切模型可以提高图像质量评估吗? - 知乎 (zhihu.com)
RSPrompter: Learning to Prompt for Remote Sensing Instance Segmentation based on Visual Foundation Model
论文:https://arxiv.org/abs/2306.16269
代码:https://github.com/KyanChen/RSPrompter
解读:RSPrompter:遥感图像实例分割利器,基于SAM实现自动分割 - 知乎
SAMMed: A medical image annotation framework based on large vision model
论文:https://arxiv.org/abs/2307.05617
解读:SAM-Med | 英伟达基于SAM提出医学图像标注效率神器 - 知乎 (zhihu.com)
SAMAug: Point Prompt Augmentation for Segment Anything Model
论文:https://arxiv.org/abs/2307.01187
解读:SAM增强技术 | SAMAug提出Point Prompt增强,让SAM模型天天向上 - 知乎 (zhihu.com)
Semantic-SAM: Segment and Recognize Anything at Any Granularity
论文:https://arxiv.org/abs/2307.04767
代码:https://github.com/UX-Decoder/Semantic-SAM
解读:港科&微软 | Semantic-SAM:多粒度的语义通用分割模型 - 知乎 (zhihu.com)
Semantic SAM: 多粒度、多语义的统一分割模型 - 知乎 (zhihu.com)
大模型学习笔记
LLM 系列超详细解读 (一):GPT:无标注数据的预训练生成式语言模型 - 知乎
LLM 系列超详细解读 (二):GPT-2:GPT 在零样本多任务学习的探索 - 知乎
LLM 系列超详细解读 (三):GPT-3:大型语言模型是少样本学习器 - 知乎
多模态超详细解读 (四):VLMo:混合多模态专家的视觉语言预训练 - 知乎
多模态超详细解读 (六):BLIP:统一理解和生成的自举多模态模型 - 知乎
Segment Anything(sam)项目整理汇总[2023.7.21] - 知乎 (zhihu.com)
SAM开源库
[0] dk-liang/Awesome-Segment-Anything
[1] liliu-avril/Awesome-Segment-Anything
[3] Hedlen/awesome-segment-anything
[4] Vision-Intelligence-and-Robots-Group/Awesome-Segment-Anything