语义分割概述

什么是语义分割       

        语义分割是计算机视觉的重要研究方向,计算机视觉包含图像分类、目标检测、图像分割、图像理解等几大块,语义分割是图像分割中的子领域。图像分类是对一整张图片做分类,目标检测是对图片中的所有物体做定位和分类,语义分割是对图片中的所有物体做像素点的分类。下图是我从网络中找到的,这个图像比文字描述更加生动形象一点。 

语义分割能做什么

  1. 辅助自动驾驶:用于道路探索与障碍物检测
  2. 医学影像诊断:分割出异常位置,减少诊断时间
  3. 辅助人脸美颜:分割出人脸各个部位针对性对人脸做美化
  4. 快速图片过滤:分割图片各类物体并做筛选

语义分割常用数据集

  1. Cityscapes
  2. KITTI
  3. PASCAL Visual Object Classes

发展现状

        我已经比较久没有跟踪这块的内容了,我印象最深的就是FCN,后续又提出了Unet、DeepLab V1、V2、V3,最近了解到的比较火的就是Segment Anything Model(SAM模型的官网),我写这篇博客的本意是梳理一下自身的知识点,做一些知识分享,后续也会上手数据的标注并借助SAM模型进行半自动化标注的实验。深度学习领域目前发展较快,每隔0.5~1年就会有较大的更新,但是很多时候新的技术并不能快速落地,这也是深度学习领域较为尴尬的地方。

专栏的规划

        目前在做的专栏有视频分类,现在新增语义分割,接下来主要先更新语义分割(目前工作上需要使用这项技术,我想在写博客中梳理自身遇到的坑,并将知识分享出来共同学习)。接下来会写的内容:

  • 使用pytorch的预训练模型做测试
  • 标注自己的数据集
  • 使用SAM半自动标注数据集
  • 训练自己的数据集

结尾

        以上是我关于语义分割的概述,欢迎大家在评论区补充内容。感谢您的观看,觉得写的还可以请帮忙点个赞和收藏!

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值