深度学习语义分割马拉松000——序言
背景
本人做医疗图像处理相关的业务,主要是使用语义分割方面的工作。最近在工作中看到了之前同事收集的语义分割相关的文档,基本把语义分割的历史进程梳理了一遍。但是感觉美中不足的是,像网上许多讲解性的文章一样,更多的是分析论文,从理论角度来讨论如何实现等问题,却没有真正的实现代码以及相关的测试环境,所以想一方面是可以共同学习共同进步,另一方面也是自己对相关历程的一个总结。
环境
在整个实现的过程中,我会使用Ubuntu16.04系统,Python3.6,Tensorflow1.13,keras2.2.4,cuda10的环境进行编写,后边也会有相应的配置过程讲解
整体流程
这里考虑到环境系统等差异可能会影响实现的过程以及结果,同时也为了帮助一些新人更方便的搭建环境,在最开始会从头讲解如何搭建开发环境,以及数据整理,力争可以有一个相对稳定的环境来进行后边的模型编写
总结
作为一个好的开始,这篇就到这了,如果之后有时间,应该除了文章也会出相应的b站视频,希望自己不要只挖坑。。。
TODO
- 完事开头难的序言
- 环境系统搭建